Na corrida para construir um computador quântico funcional — um sonho situado na interseção entre a física avançada e a ciência da computação desde a década de 1980 — a linha de chegada pode estar à vista.
Uma série de avanços técnicos recentes significa que as principais empresas de tecnologia estão competindo para se tornarem as primeiras a expandir o que até agora têm sido apenas experimentos de laboratório para sistemas de tamanho real e funcionais.
Em junho, a IBM foi a mais recente a afirmar que seu caminho estava claro para chegar a uma máquina em escala total, após publicar um projeto detalhado de um computador quântico que preencheu peças-chave ausentes em seus modelos anteriores. Computadores quânticos têm o potencial de resolver problemas além da capacidade das máquinas atuais, em áreas como ciência de materiais e inteligência artificial.
“Já não parece mais um sonho”, disse Jay Gambetta, chefe da iniciativa quântica da IBM. “Sinto realmente que deciframos o código e que seremos capazes de construir essa máquina até o fim da década.”
Isso intensificou a corrida contra o Google, que superou um dos maiores obstáculos remanescentes no fim do ano passado e afirma também estar no caminho para construir um computador quântico de escala industrial até o fim da década.
“Todos os desafios [restantes] de engenharia e ciência são superáveis”, disse Julian Kelly, chefe de hardware do Google Quantum AI.
Mesmo com alguns dos problemas científicos mais complexos já superados e com a preparação para um sprint final, as empresas ainda enfrentam uma série de desafios de engenharia aparentemente mais rotineiros, mas igualmente difíceis, para industrializar a tecnologia.
As barreiras restantes “parecem tecnicamente menos desafiadoras que a física fundamental, mas não devemos subestimar o esforço de engenharia para escalar”, disse Oskar Painter, executivo responsável pelo hardware quântico na Amazon Web Services. Ele prevê que um computador quântico útil ainda esteja a 15–30 anos de distância.
Chegar à escala industrial significa expandir sistemas que atualmente contam com menos de 200 qubits — as unidades básicas de processamento de máquinas quânticas — para 1 milhão de qubits ou mais. As empresas envolvidas comparam essa transição aos primeiros dias da computação convencional, embora computadores quânticos apresentem desafios adicionais.
Entre os mais difíceis está a instabilidade inerente dos qubits, que mantêm seus estados quânticos — quando podem realizar cálculos úteis — apenas por frações de segundo. Isso leva à incoerência, ou “ruído”, à medida que mais qubits são adicionados.
Uma demonstração gráfica dos limites da escalabilidade ocorreu quando a IBM aumentou o número de qubits em seu chip experimental Condor para 433, resultando em crosstalk — interferência entre os componentes.
“Agrupar um número maior de qubits dessa forma cria um efeito bizarro que não conseguimos mais controlar”, disse Subodh Kulkarni, CEO da Rigetti Computing, start-up americana que também trabalha com qubits feitos de supercondutores — a mesma tecnologia utilizada por IBM e Google. “Esse é um problema físico complicado de resolver.”
Gambetta disse que a IBM já havia previsto a interferência observada no chip Condor e que mudou para um novo tipo de acoplador para conectar seus qubits, tornando seus sistemas menos suscetíveis ao problema.
Nos primeiros sistemas experimentais, qubits foram “ajustados” individualmente para melhorar seu desempenho. A complexidade e o custo tornam isso impraticável em grande escala, levando à busca por componentes mais confiáveis — algo que exigirá avanços constantes em manufatura, além de novas descobertas em materiais. O Google também afirma que pretende reduzir o custo dos componentes em um fator de 10 para atingir sua meta de US$ 1 bilhão para uma máquina em escala total.
As empresas dizem que seus sistemas poderão tolerar certo grau de imperfeição nos qubits graças a uma técnica conhecida como correção de erros, que funciona copiando dados entre vários qubits, criando redundância caso algum componente falhe.
Até agora, apenas o Google demonstrou um chip quântico capaz de realizar correção de erros à medida que o tamanho aumenta. Segundo Kelly, qualquer empresa que tente escalar sem atingir primeiro esse ponto acabará com “uma máquina muito cara que gera ruído, consome energia, tempo e esforço de engenharia e não oferece nenhum valor real”.
Ainda assim, outros não desaceleraram suas tentativas de escalar, mesmo sem igualar o Google.
A IBM disse que está focada no que considera o desafio mais importante: provar que consegue operar um sistema em escala muito grande, ao mesmo tempo em que questiona se a abordagem de correção de erros do Google funcionará em um sistema de tamanho total.
A técnica usada pelo Google, conhecida como surface code, conecta cada qubit em uma grade bidimensional a seus vizinhos mais próximos. Isso depende de um número relativamente grande de qubits operando em conjunto e exige que o sistema alcance 1 milhão de qubits ou mais para realizar cálculos úteis.
A Microsoft afirmou ter decidido não seguir um projeto similar, por considerar que construir máquinas de 1 milhão de qubits apresentaria muitos outros desafios de engenharia.
A IBM mudou para outra forma de correção de erros, chamada low-density parity-check code, que, segundo a empresa, exigirá 90% menos qubits que o Google. No entanto, essa abordagem depende de conexões mais longas entre qubits distantes — um desafio tecnológico difícil que atrasou seu desenvolvimento.
Kelly, do Google, disse que a técnica da IBM adiciona novos níveis de complexidade a sistemas que já são extremamente difíceis de controlar, embora a IBM tenha afirmado no mês passado que conseguiu criar conectores mais longos pela primeira vez.
O último projeto da IBM parece capaz de produzir uma máquina funcional em grande escala, disse Mark Horvath, analista da Gartner, embora tenha acrescentado que essa abordagem ainda exista apenas na teoria:
“Eles precisam mostrar que conseguem fabricar chips que façam isso”, afirmou.
Independentemente do projeto, as empresas enfrentam outros desafios comuns de engenharia, incluindo reduzir a complexidade de cabeamento dentro dos primeiros sistemas quânticos, encontrar novas formas de integrar um grande número de componentes em um único chip e depois conectar vários chips em módulos. Também será necessário desenvolver refrigeradores especializados muito maiores para abrigar sistemas em escala total, que operam em temperaturas extremamente baixas.
Essas questões ressaltam decisões básicas de design que podem ser críticas à medida que os sistemas escalam. Os que usam supercondutores como qubits — como Google e IBM — tiveram alguns dos maiores avanços, embora seus qubits sejam mais difíceis de controlar e precisem operar a temperaturas próximas ao zero absoluto.
Sistemas concorrentes que usam átomos como qubits — conhecidos como íons aprisionados (trapped ions) e átomos neutros — ou que utilizam fótons, prometem ser inerentemente mais estáveis. No entanto, enfrentam outros obstáculos, como a dificuldade de interligar seus conjuntos de qubits em sistemas maiores e a velocidade de computação mais lenta.
Os custos e desafios técnicos da escalabilidade provavelmente determinarão quais tecnologias se mostrarão mais viáveis.
Sebastian Weidt, CEO da Universal Quantum, start-up britânica que trabalha com íons aprisionados, disse que decisões governamentais sobre quais tecnologias apoiar nesse período provavelmente terão papel importante para reduzir o investimento a “um número menor de players que consiga chegar até o fim”.
Um sinal do crescente interesse oficial em identificar possíveis vencedores veio quando a Darpa, agência de pesquisa avançada do Pentágono, iniciou no ano passado um amplo estudo sobre diferentes empresas quânticas, com o objetivo de apontar quais poderiam ser expandidas para atingir tamanho prático mais rapidamente.
Enquanto isso, várias empresas apresentaram recentemente projetos radicais de novos qubits, que afirmam serem mais controláveis. Entre elas estão Amazon e Microsoft, que dizem ter dominado um estado da matéria para criar componentes mais confiáveis. Essas tecnologias estão em estágios muito iniciais, mas seus defensores afirmam que eventualmente ultrapassarão as demais.
Isso não desacelerou as empresas que usam técnicas mais antigas e que vêm sendo desenvolvidas há anos.
“Só porque é difícil, não significa que não possa ser feito”, disse Horvath, da Gartner, ecoando a confiança que impulsiona a corrida do setor para escalar.
Fonte: Financial Times
Traduzido via ChatGPT

