Computadores quânticos requerem resiliência a erros devido à alta instabilidade dos qubits físicos, visando alcançar uma forma mais rápida de qubit lógico.
A computação quântica está cada vez mais próxima de se tornar uma realidade aplicável no dia a dia. Com o potencial de revolucionar a forma como lidamos com o processamento de dados, essa tecnologia vem sendo amplamente explorada por empresas de tecnologia líderes, como IBM e Google, que buscam impulsionar a inovação nesse campo.
O processamento quântico promete uma abordagem totalmente nova e eficiente para lidar com operações complexas e intensivas. Com a capacidade de realizar cálculos em paralelo, essa poderosa ferramenta tem o potencial de transformar diversos setores, acelerando descobertas científicas e otimizando processos computacionais de forma inédita.
Desenvolvimentos recentes na computação quântica
A área da computação quântica está em constante evolução, e mais uma vez uma empresa traz inovações significativas. No começo de abril, a Microsoft surpreendeu ao revelar o desenvolvimento de um sistema de computação quântica com um nível recorde de resiliência a erros. A combinação do sistema de virtualização de qubits da empresa com o hardware da startup Quantinuum possibilitou a realização de 14 mil experimentos quânticos sem um único erro detectado, um feito impressionante.
Para compreender a importância desse avanço, é crucial entender a natureza dos qubits, as unidades fundamentais de processamento na computação quântica. Enquanto os bits em computadores clássicos podem representar apenas os estados 0 ou 1, os qubits têm a capacidade única de expressar simultaneamente uma infinidade de estados entre 0 e 1. Essa característica é o que confere a superioridade computacional à computação quântica.
No entanto, um dos principais desafios enfrentados nesse campo é a alta instabilidade dos qubits físicos, que resulta em taxas de erro consideráveis nos processadores quânticos atuais. Para superar esse obstáculo, uma abordagem promissora é a criação de qubits lógicos, que consistem em múltiplos qubits físicos agrupados em uma única unidade de processamento. Essa estratégia permite mitigar os erros inerentes ao sistema, uma vez que cada qubit lógico equivale a uma quantidade significativa de qubits físicos.
A Microsoft adotou uma abordagem inovadora ao mesclar a virtualização dos qubits com os qubits físicos, resultando em uma melhoria significativa nas taxas de erro. Ao integrar qubits físicos e virtuais, a empresa obteve um ganho de 800 vezes na resiliência do sistema, representando um avanço substancial na busca por uma computação quântica mais confiável e eficiente.
A meta da Microsoft é alcançar um supercomputador híbrido com 100 qubits lógicos confiáveis para aplicação em pesquisas científicas. Além disso, visando aplicações comerciais, a empresa planeja escalar a máquina para perto de mil qubits lógicos confiáveis. Esses avanços representam uma transição significativa da empresa do ‘nível 1’ de computação quântica fundamental para o ‘nível 2’, caracterizado por sistemas resilientes e de alta performance.
Em meio a essa corrida pela supremacia na computação quântica, outras gigantes do setor, como a IBM, não ficam para trás. Em um anúncio recente, a IBM revelou a criação de um chip com impressionantes 1.121 qubits funcionais, demonstrando o ritmo acelerado de inovação e competição nesse campo emocionante da ciência e da tecnologia.
Fonte: @ Info Money
Comentários sobre este artigo