/i.s3.glbimg.com/v1/AUTH_63b422c2caee4269b8b34177e8876b93/internal_photos/bs/2026/b/W/BIOkItQka91fxN3MUv4Q/13emp-100-defesa-b8-img01.jpg)
À medida que sistemas de inteligência artificial passam a ser cada vez mais presentes no cotidiano, com estudantes de todas as idades recorrendo aos chatbots de IA para resolver todos os seus problemas, dos mais simples aos mais complexos, cresce entre pesquisadores uma preocupação: o efeito dessa delegação cognitiva sobre o aprendizado humano.
Durante um painel no SXSW (South by Southwest – um dos maiores festivais de inovação, tecnologia, música, cinema e cultura do mundo) dedicado à relação entre inteligência artificial e cérebro, pesquisadores e gestores da educação discutiram o risco de que a tecnologia, ao assumir parte crescente das atividades mentais, reduza o exercício de habilidades que sempre foram centrais no processo de aprendizagem.
A discussão parte de um princípio básico da neurociência: o cérebro se adapta aos estímulos que recebe. Habilidades usadas com frequência tendem a se fortalecer; as que deixam de ser exercitadas podem se enfraquecer ao longo do tempo. Se cada vez mais atividades cognitivas passam a ser realizadas por sistemas digitais, da escrita à resolução de problemas, qual será o efeito disso sobre a maneira como as pessoas desenvolvem raciocínio, memória e criatividade?
“Eu estou profundamente preocupado que essa muleta leve à atrofia”, disse Sanjay Sarma, professor do MIT e pesquisador em tecnologia educacional. “O ser humano é um animal que aprende.” Sarma lembrou que temores semelhantes acompanharam outras transformações tecnológicas. Quando a escrita se difundiu na Grécia antiga, filósofos como Platão argumentaram que ela poderia prejudicar a memória, já que as pessoas deixariam de memorizar informações.
A história mostrou que novas tecnologias tendem a reorganizar, e não necessariamente eliminar, formas de aprendizado. Ainda assim, segundo ele, a inteligência artificial introduz um nível diferente de delegação cognitiva, porque passa a atuar diretamente em atividades associadas ao raciocínio e à produção intelectual.
Hoje, uma parte significativa da vida cotidiana já envolve sistemas que automatizam tarefas mentais. Aplicativos de navegação definem rotas e orientam deslocamentos em tempo real. Ferramentas de IA generativa produzem textos, códigos e imagens a partir de comandos simples. Dispositivos conectados auxiliam na identificação de objetos, pessoas e informações no ambiente. Para Sarma, a questão é como o cérebro humano responde quando parte dessas demandas cognitivas deixa de existir.
Para Olivia Joseph, estudante de computação e cognição no MIT, a mudança já pode ser observada dentro das universidades. Joseph iniciou sua graduação antes da popularização dos grandes modelos de linguagem (LLMs, na sigla em inglês). Naquele momento, resolver exercícios complexos de programação ou matemática frequentemente significava discutir problemas com colegas, consultar professores ou testar diferentes caminhos até chegar a uma solução.
“Eu lembro com carinho dessa experiência”, disse. “Você tentava, falhava, tentava de novo e finalmente chegava à resposta.” A situação mudou rapidamente após a disseminação de ferramentas baseadas em grandes modelos de linguagem. Segundo ela, a adoção entre estudantes foi quase imediata. “Em poucas semanas, todo mundo estava usando”, afirmou.
A presença dessas ferramentas alterou a dinâmica de estudo em diversas disciplinas, especialmente em áreas técnicas como ciência da computação. Em muitos casos, exercícios que antes exigiam longos períodos de tentativa e erro passaram a ser resolvidos diretamente com auxílio de IA. “Tenho colegas que praticamente não escrevem mais código”, disse.
A preocupação, na visão dela, não está apenas na possibilidade de uso indevido da tecnologia em avaliações acadêmicas. O ponto central é a perda de uma etapa fundamental do aprendizado: o desenvolvimento gradual de habilidades por meio da prática.
Joseph, que também é atleta e faz parte do time de basquete feminino do MIT, compara o processo ao treinamento esportivo. “Você não entra em um jogo sem treinar fundamentos”, afirmou. Sem esse treino repetido – escrever código, testar hipóteses, corrigir erros – torna-se mais difícil compreender profundamente os problemas que se tenta resolver.
Ela observa que os modelos de linguagem são particularmente eficientes em tarefas cujo caminho já foram amplamente documentados. “LLMs são ótimos para resolver problemas que já foram resolvidos”, disse. “Mas e os problemas que ainda não existem?”
Outra mudança percebida por Joseph aparece na forma como estudantes escrevem. Ao analisar respostas e trabalhos produzidos em sala de aula, ela passou a notar um padrão recorrente: textos diferentes, produzidos por pessoas distintas, apresentavam estruturas e tons muito semelhantes. “Os textos tinham todos o mesmo tom”, afirmou.
Em alguns casos, o uso de ferramentas de IA era evidente. Em outros, a influência parecia mais indireta, resultado de estudantes que pesquisavam, resumiam ou estruturavam ideias com ajuda de modelos de linguagem antes de produzir suas próprias versões. “Estamos começando a ver uma homogenização da linguagem”, disse.
Para Chris Gabrieli, presidente do conselho de ensino superior de Massachusetts e professor na Harvard Graduate School of Education, a discussão sobre IA nas universidades costuma começar por um problema imediato: fraude acadêmica.
“Todo mundo está trapaceando”, disse. Segundo ele, muitas instituições reagiram retomando avaliações presenciais ou provas escritas em sala de aula como tentativa de garantir autoria dos trabalhos. Mas, na visão dele, esse tipo de resposta aborda apenas uma parte da questão. “É uma crise completa”, afirmou.
O desafio mais amplo, segundo Gabrieli, é que grande parte do modelo de ensino superior foi estruturada em torno de formas de avaliação, como trabalhos escritos e ensaios, que se tornaram mais fáceis de automatizar com o avanço da IA. Isso levanta dúvidas sobre como medir efetivamente o aprendizado em um ambiente onde produzir textos ou respostas estruturadas deixou de exigir o mesmo processo cognitivo de antes.
Nesse contexto, a expansão da IA se soma a um cenário em que universidades já lidam com queda de matrículas, aumento de custos e questionamentos sobre o retorno econômico de um diploma.
Para os participantes do painel, a questão central não é se a inteligência artificial deve ou não fazer parte do processo educacional. A expectativa geral é que o domínio dessas ferramentas se torne uma habilidade básica no mercado de trabalho. “Seria uma má ideia contratar alguém que não sabe usar IA”, disse Gabrieli.
O desafio, segundo eles, é evitar que o uso dessas tecnologias substitua etapas essenciais do aprendizado humano. Resolver problemas, escrever textos ou construir argumentos deveria sempre envolver um processo que inclui tentativa, erro, revisão e reflexão. Só assim se chega ao aprendizado real.
Fonte: Valor Econômico
