Pesquisadores britânicos alcançaram um marco histórico na computação quântica ao registrar a menor taxa de erro já vista em operações com computadores quânticos: apenas um erro a cada 6,7 milhões de operações, ou 0,000015%. O feito, publicado no Physical Review Letters, em 12 de junho, representa um avanço significativo no caminho para a criação de máquinas quânticos menores, mais rápidas e finalmente úteis em escala industrial.
O resultado representa uma melhora de quase dez vezes em relação ao recorde anterior, estabelecido pela mesma equipe em 2014, quando haviam atingido um erro a cada 1 milhão de operações. Agora, o controle das operações quânticas foi elevado a um patamar próximo do limite físico imposto pelas leis naturais.
Na computação quântica, as informações são armazenadas e processadas por qubits, ou bits quânticos. Ao contrário da computação clássica de PCs e smartphones, cujo bit pode ser processado por 0 ou por 1, o qubit expressa o 0 e o 1 ao mesmo tempo por um fenômeno chamado superposição. Claro, o funcionamento do qubit segue regras completamente diferentes da computação clássica.
O grande desafio do campo de estudo é que os qubits são muito frágeis, o que destrói a superposição e leva ao erro. Qualquer interferência do ambiente, como variações de temperatura ou vibração, pode derrubar esse estado quântico, levando a erros de processamento. Reduzir ou eliminar os erros é a barreira para a construção de máquinas funcionais e capazes de resolver problemas do mundo real.
A conquista dos cientistas britânicos foi possível graças a uma abordagem inovadora baseada em íons presos, usando cálcio-43, e não os tradicionais qubits fotônicos ou de supercondutores, técnica usada por Google e Amazon. Os cientistas, da Universidade de Oxford, conseguiram eliminar quase completamente o “ruído” gerado pela própria arquitetura e métodos de controle do sistema — um dos principais responsáveis pelas falhas quânticas.
Ao contrário da maioria dos sistemas quânticos atuais, que dependem de temperaturas criogênicas para manter a estabilidade dos qubits, o experimento foi realizado em temperatura ambiente. Essa simplicidade operacional pode facilitar a adoção futura da tecnologia em computadores quânticos práticos.
O controle preciso dos qubits foi garantido por meio de micro-ondas que colocaram os íons em um estado atômico especial, semelhante ao usado em relógios de altíssima precisão. Um sistema automatizado monitorava constantemente a estabilidade do sinal e fazia correções dinâmicas em tempo real, ajustando amplitude e frequência para manter o desempenho ideal.
Essa combinação de refinamento físico e automação permitiu que os pesquisadores realizassem um número maior de operações com precisão, superando métodos tradicionais baseados em fótons. Segundo os autores, o mesmo nível de controle poderá beneficiar outras tecnologias quânticas além da computação, como sensores avançados e sistemas de medição temporal.
Para Molly Smith, coautora do estudo, a redução drástica na taxa de erro também diminui significativamente a necessidade de camadas robustas de correção de erro. Isso abre caminho para computadores quânticos mais compactos e acessíveis, além de beneficiar outras áreas da tecnologia quântica, como sensores e relógios de precisão.
Nova fronteira na luta contra o erro
Apesar da euforia, a pesquisa cobre apenas as chamadas operações de “porta de um qubit”, ou seja, aquelas realizadas com um único qubit. Em operações mais complexas, que exigem múltiplos qubits agindo em conjunto, os erros ainda são significativos: cerca de um a cada duas mil operações.
Esse gargalo é o mesmo que outras empresas do setor tentam superar. A IBM, por exemplo, anunciou recentemente um plano ambicioso para lançar até 2029 um processador quântico funcional com 200 qubits lógicos e capacidade para mais de 100 milhões de operações. Para isso, aposta em algoritmos chamados qLDPC, que prometem reduzir a sobrecarga de qubits físicos necessários para corrigir erros.
Apesar das limitações atuais com operações de múltiplos qubits, a redução extrema na taxa de erro em portas de um único qubit representa um divisor de águas. Isso porque a maior parte da infraestrutura necessária para a computação quântica funcional é hoje voltada exclusivamente para corrigir erros. Com menos falhas, a arquitetura pode ser simplificada, exigindo menos qubits e reduzindo custos.
A pesquisa mostra que é possível atacar o problema do erro diretamente na origem, aprimorando a precisão dos controles e do design do sistema. É uma abordagem diferente daquela adotada por gigantes como a IBM, que também aposta em avanços na área, mas por meio de algoritmos de correção de erro, como os qLDPC, capazes de reduzir a sobrecarga na criação de qubits lógicos.
Essas duas frentes de desenvolvimento — a eliminação do erro na origem e a correção algorítmica em tempo real — apontam para um mesmo objetivo: tornar a computação quântica viável para problemas reais, como desenvolvimento de medicamentos, novos materiais e otimização logística. Embora os desafios ainda sejam grandes, o recorde alcançado pela equipe britânica mostra que esse futuro pode estar mais próximo do que se imaginava.
