A Google anunciou um significativo avanço na computação quântica com o lançamento do chip Willow. Este novo processador representa um grande salto na capacidade de lidar com erros, um dos maiores desafios dessa tecnologia emergente.
Os *qubits*, unidades fundamentais de informação quântica, são notoriamente instáveis. Diferentemente dos bits da computação clássica, que armazenam 0 ou 1, os qubits podem existir em superposições de ambos os estados, o que potencializa a resolução de problemas complexos. No entanto, essas superposições são frágeis, suscetíveis a interferências externas que comprometem sua integridade.
Chips anteriores apresentavam taxas de erro significativas, com falhas a cada poucos segundos. O chip Willow, entretanto, consegue manter um único qubit lógico estável por até uma hora, uma melhoria dramática. Essa estabilidade foi alcançada através da distribuição de um único qubit lógico em múltiplas partículas em superposição. Para que essa técnica funcione, a correção de erros pelos qubits físicos adicionais precisa ser significativamente mais rápida que a geração de novos erros.
De acordo com Michael Newman e Kevin Satzinger, pesquisadores da equipe Google Quantum AI, "Willow é o primeiro processador em que os qubits com correção de erros melhoram exponencialmente à medida que aumentam de tamanho. A cada aumento nos qubits codificados, de uma rede 3×3 para 5×5 e depois 7×7 de qubits físicos, a taxa de erro codificado é reduzida pela metade." O chip Willow possui 105 qubits físicos. Sua arquitetura e algoritmos de correção de erros contribuem para sua estabilidade, onde mais qubits significam menos erros.
Os pesquisadores destacam que este resultado comprova a supressão exponencial de erros prevista pela correção de erros quânticos, objetivo buscado há quase 30 anos e crucial para aplicações em larga escala. Além da estabilidade, o Willow realizou uma tarefa específica em cinco minutos, tarefa que levaria 10 septilhões de anos para um supercomputador clássico. Embora ainda haja um longo caminho a percorrer até a computação quântica em larga escala, esta abordagem mostra-se promissora.
Apesar dos avanços, os erros persistirão em sistemas quânticos. O objetivo é reduzi-los a uma taxa aceitável para processamento prático. Isso exigirá hardware aprimorado, mais qubits e algoritmos otimizados. Newman e Satzinger alertam que "a correção de erros quânticos parece estar funcionando, mas existe uma grande diferença entre as taxas de erro de um em mil de hoje e as taxas de um em um trilhão necessárias para o futuro."
Uma prévia da pesquisa foi publicada na revista Nature aqui.
Quer receber as principais notícias do Portal N10 no seu WhatsApp? Clique aqui e entre no nosso canal oficial.