A IA está a “transformar a ciência numa monocultura”
por Gabriel Lagoa | 2 de Março, 2026
Um estudo alerta que a corrida ao tema da IA está a homogeneizar a ciência, os métodos e até a linguagem dos investigadores.
O que acontece quando a ciência que estuda a inteligência artificial começa a comportar-se como ela? É essa a pergunta que um grupo de investigadores da Universidade de Cambridge e da Copenhagen Business School coloca num artigo publicado na revista Communications Psychology, que integra o portfólio da Nature.
Cecilie Steenbuch Traberg, Jon Roozenbeek e Sander van der Linden argumentam que a explosão de estudos sobre IA não está apenas a alargar o campo científico, está a estreitá-lo. A ciência social e comportamental estará a convergir, segundo os autores, em torno dos mesmos temas, das mesmas ferramentas e até das mesmas expressões. O fenómeno tem nome: “monocultura científica”.
Há uma corrida ao ângulo da IA
Tudo começa com um incentivo: financiadores, revistas e instituições recompensam quem trabalha em temas atuais. E poucos temas são mais atuais do que a IA generativa. O resultado é que muitos investigadores reorientaram as suas agendas e as questões que antes eram sobre cognição, comunicação ou instituições tornaram-se questões sobre IA e cognição, IA e comunicação, IA e instituições.
Isto não seria necessariamente um problema se fosse uma fase de transição. Mas os dados sugerem que é um ciclo que se auto-alimenta. Investigadores que usam ferramentas de IA publicam mais, são mais citados e avançam mais na carreira. As próprias ferramentas geram ideias, sintetizam literatura e enquadram perguntas, frequentemente sobre a própria IA. A tecnologia alimenta o seu próprio crescimento como tema de investigação. “Não trabalhar em IA é cada vez mais percecionado como uma oportunidade perdida ou, pior ainda, como sinal de irrelevância”, dizem os autores do documento.
Um ciclo com cinco engrenagens
O artigo descreve um circuito de retroalimentação com várias etapas encadeadas. Primeiro, a IA ganha proeminência cultural: expectativa, urgência e atenção mediática. Isso traduz-se em sinais institucionais sobre o que vale a pena estudar. Esses sinais formalizam-se em incentivos: financiamento, publicação, progressão na carreira. Os investigadores adotam ferramentas de IA como infraestrutura de base. Os métodos convergem. A linguagem converge. E a IA é então usada para gerar novas ideias sobre… a IA. O ciclo fecha-se e recomeça com mais força.

O resultado emergente é descrito pelos autores como “monoconformidade”. A ciência pode parecer diversa à superfície, pois há muitos artigos e muitos ângulos, mas partilharia, por baixo, os mesmos pressupostos, as mesmas pipelines analíticas, o mesmo vocabulário. Expressões como “IA de confiança”, “colaboração humano-máquina” ou “implementação ética” repetem-se a ponto de, na perspectiva dos investigadores, deixarem de acrescentar significado.
O que se perde
Os autores identificam três consequências práticas. A primeira é a perda de diversidade intelectual: temas que não cabem facilmente numa narrativa sobre IA ficam sem recursos ou legitimidade. A segunda é o enfraquecimento do pluralismo metodológico, ou seja, a capacidade de estudar fenómenos complexos através de várias lentes ao mesmo tempo. Se toda a gente usa as mesmas ferramentas, a ciência fica cega ao que essas ferramentas não conseguem captar.
A terceira consequência diz respeito à perda de resiliência do ecossistema científico. Tal como a biodiversidade protege os ecossistemas de colapsos, a heterogeneidade intelectual protege a ciência de choques de paradigma. Uma ciência demasiado especializada num único tema ou método tem menos capacidade de se reorientar quando o mundo muda.
O que fazer
Os investigadores não propõem abandonar o estudo da IA. Propõem que a comunidade científica crie salvaguardas estruturais: reservar uma parte do financiamento para projectos sem ângulo de IA; garantir que o trabalho sobre IA é avaliado por revisores com formações diversas; recompensar originalidade e profundidade teórica, não apenas velocidade de publicação; e incentivar os investigadores a perguntarem-se que problemas continuam a ser relevantes mesmo que não sejam computacionalmente resolúveis.
A ironia final está bem resumida na última frase do artigo: “Ao alertar que a IA nos pode fazer pensar de forma igual, começámos a pensar de forma igual sobre a IA.” É uma simetria que, dizem os autores, devia fazer-nos parar para pensar.
Subscreve a nossa newsletter, onde todas as terças e quintas podes ler as melhores histórias do mundo da inovação e das empresas em Portugal e lá fora.