Após o anúncio do primeiro-ministro português, Luís Montenegro, durante a abertura do Web Summit Lisboa, de que Portugal iria desenvolver a sua própria IA, as opiniões se dividiram na plateia.
“Eu fiquei muito surpreendido e cético com o anúncio do Primeiro-Ministro”, diz o português Nuno Vargas, consultor digital e de IA que atua em organizações como a Gates Foundation e Meta. “A complexidade de tudo isso e o custo que tem são muito altos, por isso é só há 4 ou 5 players no mundo que fazem estes modelos funcionarem bem”.
Embora a OpenAI não tenha divulgado todos os detalhes sobre o treinamento do GPT-4, o CEO da empresa, Sam Altman, já disse que o custo para treinar o GPT-4 foi superior a US$ 100 milhões. Mas alguns analistas especularam que modelos futuros podem custar centenas de milhões ou até bilhões de dólares para treinar. O Goldman Sachs, entre outras instituições, inclusive tem questionando o retorno do investimento (ROI) da indústria.
Para os governos, além dos elevados custos de desenvolvimento, a manutenção de uma tecnologia tão jovem seria desafiadora. Tanto pela escassez de mão de obra, que é cara e disputada pelas gigantes de tecnologia, como pela necessidade de constantes investimentos em atualizações.
Já os defensores de grandes modelos de linguagem (LLMs) desenvolvidos nacionalmente alegam que ao controlar a tecnologia de IA, os governos reduzem a dependência de empresas estrangeiras, protegendo informações sensíveis e fortalecendo a segurança nacional.
O Tony Blair Institute for Global Change, um “think tank” com sede em Londres, começou recentemente a defender que o Reino Unido crie seu próprio modelo de IA soberano — uma iniciativa que alguns veículos de mídia britânicos apelidaram de “ChatGB.”
Manter dados sensíveis longe das “big techs” também garantiria mais privacidade aos cidadãos. O desenvolvimento local também pode estimular a economia local, criando empregos qualificados e promovendo avanços em pesquisa e desenvolvimento tecnológico.
Outra vantagem das IAs desenvolvidas localmente é que elas podem ser adaptadas para respeitar nuances culturais, linguísticas e sociais específicas do país, melhorando a eficácia em serviços públicos como educação, saúde e segurança.
Nuno Vargas afirma que o fato do português de Portugal ser menos falado que o português do Brasil poderia ser um fator a favor do desenvolvimento de um ChatGPT de Portugal, mas tem impressão que o fato da portuguesa Daniela Braga, da DefineCrowd, que está no grupo de aconselhamento do presidente Biden sobre IA ter sido apanhada de surpresa com o anúncio português deixa uma impressão ruim. “São duas faculdades da Lisboa que vão liderar o projeto anunciado nesta semana, e parece-me que estamos a fazer um anúncio de uma coisa que sequer seja um desígnio nacional”.
Além de Portugal, o Brasil também anunciou planos de desenvolver sua própria LLMs. O Ministério da Ciência e Tecnologia brasileiro prevê investimentos de R$ 23 bilhões, até 2028, no Plano Nacional de Inteligência Artificial (PNIA). O plano prevê R$ 12,72 bilhões em crédito (via BNDES, Finep e outros), além de R$ 8,47 bilhões de gastos públicos, mais de R$ 1 bilhão de investimentos privados.
Entre as diversas ações, uma das iniciativas para o Sistema Único de Saúde (SUS), é criar um sistema para automatizar a transcrição de teleconsultas e uma ferramenta para suporte à decisão na compra de medicamentos.
Mas enquanto governos de diversos países anunciam bilhões em investimento em IA, com resultados incertos, especialistas se questionam se não faria mais sentido unirem esforços.
“A falta de articulação para políticas de tecnologia é uma coisa triste. Portugal anunciou que vai fazer uma IA em português durante o Web Summit. Só que o Brasil já tinha anunciado o Plano Brasileiro de IA (PBIA) que prevê mais de R$ 1 bilhão para desenvolver um LLM em português?!”, escreveu, no LinkedI, Diogo Cortiz, professor da PUC-SP. “O estado de FOMO (Fear of Missing Out ou “medo de perder algo”) faz todo mundo correr para chegar no mesmo lugar. Sem conversa. Sem diálogo”, acrescentou.
Cortiz aponta como exemplo Cingapura, onde uma iniciativa liderada pelo governo visa corrigir o desequilíbrio com um LLM do Sudeste Asiático, o primeiro de uma família de modelos chamada SEA-LION – Southeast Asian Languages in One Network (Línguas do Sudeste Asiático em Uma Rede) – treinado nos idiomas e normas culturais da região. O projeto conta com a colaboração de diversos países da região.
O FOMO, que já havia contagiado a iniciativa privada, chegou ao estado. E pode piorar, há boas chances de você ser a próxima vítima de um desejo incontrolável de ter uma IA para chamar de sua.
“As pessoas vão ficar impressionadas com a hiperpersonalização que a IA pode trazer”, disse Linda Yao, vice-presidente da Lenovo durante o evento. “Se acham que a inteligência artificial já conhece vocês, esperem pelo que vem aí”.
A tendência é que a IA seja cada vez mais customizada para cada pessoa. Grosso modo, poderíamos ter bilhões de IAs, inclusive com IAs desenvolvendo novas IAs. Os agentes autônomos em IA são sistemas de inteligência artificial projetados para operar de forma independente, realizando tarefas e tomando decisões sem a necessidade de intervenção humana constante.
Mas por que tudo isso pode se tornar um pesadelo?
Segundo as Nações Unidas, os “data centers” que abrigam servidores de IA produzem resíduos eletrônicos e consomem grandes quantidades de água, que está se tornando escassa em muitos lugares. Eles também dependem de minerais críticos e elementos raros, frequentemente extraídos de forma insustentável. Além disso, consomem enormes quantidades de eletricidade, incentivando a emissão de gases de efeito estufa que aquecem o planeta.
As emissões de gases de efeito estufa do Google aumentaram 48% nos últimos cinco anos por causa da expansão de seus centros de dados que sustentam sistemas de inteligência artificial (IA), de acordo com dados do próprio Google. E pode ser pior, segundo análise do jornal “The Guardian”, de 2020 a 2022, as emissões reais dos data centers “internos” ou de propriedade das empresas Google, Microsoft, Meta e Apple são provavelmente cerca de 662% – ou 7,62 vezes – maiores do que o reportado oficialmente. Ou seja, o problema é bem maior do que essas empresas admitem.
Um relatório do Goldman Sachs estima que a IA aumentará a demanda de energia dos “data centers” globais em 160% até 2030, e que as emissões de dióxido de carbono podem mais que dobrar em comparação com os níveis de 2022.
Brad Smith, presidente da Microsoft, disse no palco principal do Web Summit que após três revoluções industriais (vapor, eletricidade e os computadores) estamos começando uma nova revolução com a IA. Mas fez uma ressalva: “Precisamos reconhecer que, nesta revolução industrial, temos de fazer algo que antes não era necessário. Precisamos construir uma revolução industrial que seja sensível às necessidades do planeta”.
O executivo da Microsoft destacou que “não podemos nos dar ao luxo de construir ‘data centers’ e consumir eletricidade sem considerar o impacto para as comunidades locais, os países e o planeta Terra.”
A julgar pela maneira afobada com que empresas têm gastado bilhões em sistemas de IA, e agora até governos investem de maneira descoordenada com medo de perder alguma vantagem competitiva, o natural é que aconteça o mesmo com as pessoas. Eu, você, nossas famílias e colegas vamos hiperpersonalizar IAs e agravar o problema ambiental.
Obviamente, existem chances da tecnologia nos salvar de nós mesmos. Pode ser uma IA benevolente ou mesmo otimizarmos o que já existe. No palco principal do Web Summit, Cristiano Amon, CEO Global da Qualcomm, descreveu como a gigante de chips está desenvolvendo tecnologias para processar informações e resolver questões de IA nos próprios celulares e dispositivos conectados à web.
Chamada computação “edge” (ou computação de borda) é uma arquitetura de processamento de dados que aproxima o poder computacional dos locais onde os dados são gerados e consumidos, ou seja, nas “bordas” da rede, em vez de depender exclusivamente de servidores em “data centers” ou na nuvem. Isso reduz a demanda dos centros de dados e otimiza o uso de energia. Pelo fato do processamento estar nas mãos dos usuários, os custos caem, especialmente com IA.
Amon comentou ainda sobre uma mudança dos dispositivos para se tornarem “AI first” (AI primeiro), na qual apenas falaremos com a IA nos computadores, o que em tese pode até reduzir a quantidade de telas, máquinas e energia que usamos.
Pouco antes, Thomas Wolff, cofundador e Diretor de Ciência (CSO) da Hugging Face, falou sobre “small models” (pequenos modelos, que são menores e mais eficientes que as as LLMs). A promessa é que usando menos dados e focando em qualidade ao invés de quantidade, a tecnologia permitirá ganhos de eficiência.
Diversas apresentações destacaram como a IA também tem ajudado a otimizar o uso de energia, localizar focos de incêndio, combater o desmatamento e melhorar o trânsito entre muitas atividades.
Mas para os mais pessimistas, com as crescentes catástrofes climáticas e a IA se desenvolvendo tão rapidamente, somada à lentidão dos governos para regular essa nova tecnologia e impor limites às “big techs”, talvez seja tarde para nos preocuparmos. Voltaremos a morar em cavernas ou seremos meras baterias para as máquinas, como no filme “Matrix”.
O colunista viajou a Lisboa a convite da organização do Web Summit
Fonte: Valor Econômico