A recente declaração conjunta assinada por 850 pessoas, incluindo executivos de grandes corporações como o fundador do Virgin Group, Richard Branson, e o cofundador da Apple, Steve Wozniak, levanta a discussão sobre se a inteligência artificial está chegando a um ponto de inflexão. O grupo, que também tem especialistas em tecnologia, políticos e integrantes da família real britânica, pede o fim de esforços para criar uma “superinteligência”, nome dado à forma de IA que superaria os humanos em tarefas cognitivas.
Ferramentas que antes executavam uma única tarefa restrita agora demonstram raciocínio entre domínios, capacidade limitada de autoaperfeiçoamento e, em testes controlados, um instinto preocupante de “negociar” quando recebem a ordem de desligar. Nada disso prova que as máquinas são sencientes, mas serve de alerta. As preocupações dos signatários da carta incluem “obsolescência econômica, perdas de liberdade, dignidade e riscos à segurança nacional”. Um relatório do Instituto Igarapé trata esses sinais como avisos antecipados, não meras curiosidades.
Líderes enfrentam uma escolha difícil: desacelerar ou acelerar. Pesquisadores de segurança defendem uma pausa até que os mecanismos de proteção consigam acompanhar o ritmo. Investidores, por outro lado, argumentam que qualquer moratória favorece os concorrentes. Em um cenário de competição global de soma zero e capital impaciente, a aceleração tende a prevalecer – especialmente se avanços em computação quântica reduzirem o tempo de treinamento de meses para dias.
O lado positivo é expressivo. A IA já está desburocratizando cadeias de suprimentos, acelerando a descoberta de medicamentos e aumentando a produtividade. Uma estimativa sugere que ela pode acrescentar US$ 19,9 trilhões ao produto global até 2030, cerca de 3,5% do PIB mundial.
Mas os riscos escalam na mesma velocidade. Modelos fundacionais poderosos estão sendo integrados a mercados, redes elétricas, hospitais e armamentos. Um único exploit, acidente ou má configuração pode se espalhar por redes em segundos. Já as deepfakes estão corroendo a confiança na mídia e nas eleições. À medida que as capacidades se expandem, o perigo passa de falhas pontuais para choques sistêmicos e, no extremo, risco existencial.
Estamos vivendo uma bolha de IA ou um boom real? O investimento é intenso, mas pesquisas recentes do MIT mostram que muitos projetos corporativos ainda lutam para gerar valor mensurável. Assim como na era das pontocom, o excesso atual pode estar lançando as bases concretas – data centers, fornecimento de chips e redes de alta velocidade – para a economia inteligente do futuro.
A energia pode ser o fator decisivo. A demanda por data centers está disparando, com cargas de trabalho de IA podendo consumir entre 3% e 4% da eletricidade global até 2030. Ganhos de eficiência ajudam, mas não vencem sozinhos a demanda crescente. Será preciso investir em chips mais eficientes, geração de energia limpa, redes elétricas mais robustas e soluções de resfriamento mais inteligentes. Decisões sobre onde construir, qual fonte de energia usar e como gerenciar a água estão se tornando rapidamente campos de disputa na formulação de políticas públicas.
A IA já está transformando o mercado de trabalho. Com o recente anúncio da Meta de 600 demissões, já ultrapassamos 180 mil postos cortados nas principais empresas do setor de tecnologia somente em 2025. Até 2030, cerca de 300 milhões de empregos poderão ser substituídos no mundo. Ao contrário de ondas anteriores de automação, agora as tarefas em risco incluem atividades criativas e profissionais.
O risco sistêmico é a preocupação central. Modelos desalinhados podem desencadear eventos súbitos, como falhas instantâneas em mercados de energia ou finanças automatizadas. Estratégias de negociação de alta frequência podem ampliar a volatilidade em microssegundos, enquanto ferramentas de IA aceleram a exploração de vulnerabilidades cibernéticas. A combinação de velocidade, escala e opacidade pode transformar pequenos erros em contágio global.
O risco existencial deixou de ser assunto de nicho e passou a figurar em informes oficiais, embora as estimativas de “P(doom)” – a probabilidade de falha catastrófica – variem. Para acadêmicos, como Toby Ord, o risco de extinção humana gira em torno de 10%. Outros, como Roman Yampolskiy, alertam que esse número pode chegar a 99,9% se a AGI (Artificial General Intelligence) for mal gerida. Quando especialistas sérios divergem por ordens de grandeza, o bom senso sugere fazer hedge por meio de segurança e governança. Governos estão se movendo, mas divergindo em suas respostas. Os Estados Unidos adotam uma postura pró-inovação, enquanto a União Europeia prioriza a precaução. A China está apertando os controles ao mesmo tempo em que amplia sua infraestrutura. O Brasil aposta em uma abordagem voltada à redução de riscos, e a Índia testa um caminho híbrido. Não haverá um único modelo global.
Se as autoridades realmente quiserem gerenciar riscos e oportunidades, precisarão adotar uma supervisão proporcional ao nível de risco, exigir transparência nos dados de treinamento e tornar auditorias, testes adversariais e exercícios de red team obrigatórios antes de escalar sistemas em setores críticos. No cenário internacional, será essencial negociar limites para a escalada cibernética e o uso de armas habilitadas por IA, como uma espécie de novo controle de armamentos para a era digital. O objetivo não é sufocar a inovação, mas civilizá-la.
Conselhos de administração precisam alinhar ambição com responsabilidade: criar comitês de risco em IA, diversificar cadeias de suprimento de dados e processamento e tratar alinhamento e interpretabilidade como prioridades estratégicas. A filantropia, por sua vez, deve financiar uma IA de interesse público por meio de ciência aberta, estruturas compartilhadas de auditoria e capacitação global – para que os benefícios se espalhem em vez de se concentrarem.
Acima de tudo, o público precisa de uma visão clara da dualidade da IA. Ela é, ao mesmo tempo, a espinha dorsal do próximo salto de produtividade e um vetor de fragilidade sistêmica. O verdadeiro teste está em saber se reguladores, empresas e sociedades conseguirão alinhar inovação e segurança rápido o suficiente para colher os frutos do boom e sobreviver ao eventual baque. Quem conseguir, vai prosperar. Quem não conseguir, pode descobrir que as máquinas se movem mais rápido do que suas regras.
Robert Muggah é cofundador do Instituto Igarapé.
Fonte: Valor Econômico