Voltar | Inteligência Artificial

A IA está a “transformar a ciência numa monocultura”

por Gabriel Lagoa | 2 de Março, 2026

Um estudo alerta que a corrida ao tema da IA está a homogeneizar a ciência, os métodos e até a linguagem dos investigadores.

O que acontece quando a ciência que estuda a inteligência artificial começa a comportar-se como ela? É essa a pergunta que um grupo de investigadores da Universidade de Cambridge e da Copenhagen Business School coloca num artigo publicado na revista Communications Psychology, que integra o portfólio da Nature. 

Cecilie Steenbuch Traberg, Jon Roozenbeek e Sander van der Linden argumentam que a explosão de estudos sobre IA não está apenas a alargar o campo científico, está a estreitá-lo. A ciência social e comportamental estará a convergir, segundo os autores, em torno dos mesmos temas, das mesmas ferramentas e até das mesmas expressões. O fenómeno tem nome: “monocultura científica”.

Há uma corrida ao ângulo da IA

Tudo começa com um incentivo: financiadores, revistas e instituições recompensam quem trabalha em temas atuais. E poucos temas são mais atuais do que a IA generativa. O resultado é que muitos investigadores reorientaram as suas agendas e as questões que antes eram sobre cognição, comunicação ou instituições tornaram-se questões sobre IA e cognição, IA e comunicação, IA e instituições.

Isto não seria necessariamente um problema se fosse uma fase de transição. Mas os dados sugerem que é um ciclo que se auto-alimenta. Investigadores que usam ferramentas de IA publicam mais, são mais citados e avançam mais na carreira. As próprias ferramentas geram ideias, sintetizam literatura e enquadram perguntas, frequentemente sobre a própria IA. A tecnologia alimenta o seu próprio crescimento como tema de investigação. “Não trabalhar em IA é cada vez mais percecionado como uma oportunidade perdida ou, pior ainda, como sinal de irrelevância”, dizem os autores do documento. 

Um ciclo com cinco engrenagens

O artigo descreve um circuito de retroalimentação com várias etapas encadeadas. Primeiro, a IA ganha proeminência cultural: expectativa, urgência e atenção mediática. Isso traduz-se em sinais institucionais sobre o que vale a pena estudar. Esses sinais formalizam-se em incentivos: financiamento, publicação, progressão na carreira. Os investigadores adotam ferramentas de IA como infraestrutura de base. Os métodos convergem. A linguagem converge. E a IA é então usada para gerar novas ideias sobre… a IA. O ciclo fecha-se e recomeça com mais força.

O circuito de retroalimentação. Imagem retirada do artigo.

O resultado emergente é descrito pelos autores como “monoconformidade”. A ciência pode parecer diversa à superfície, pois há muitos artigos e muitos ângulos, mas partilharia, por baixo, os mesmos pressupostos, as mesmas pipelines analíticas, o mesmo vocabulário. Expressões como “IA de confiança”, “colaboração humano-máquina” ou “implementação ética” repetem-se a ponto de, na perspectiva dos investigadores, deixarem de acrescentar significado.

O que se perde

Os autores identificam três consequências práticas. A primeira é a perda de diversidade intelectual: temas que não cabem facilmente numa narrativa sobre IA ficam sem recursos ou legitimidade. A segunda é o enfraquecimento do pluralismo metodológico, ou seja,  a capacidade de estudar fenómenos complexos através de várias lentes ao mesmo tempo. Se toda a gente usa as mesmas ferramentas, a ciência fica cega ao que essas ferramentas não conseguem captar.

A terceira consequência diz respeito à perda de resiliência do ecossistema científico. Tal como a biodiversidade protege os ecossistemas de colapsos, a heterogeneidade intelectual protege a ciência de choques de paradigma. Uma ciência demasiado especializada num único tema ou método tem menos capacidade de se reorientar quando o mundo muda.

O que fazer

Os investigadores não propõem abandonar o estudo da IA. Propõem que a comunidade científica crie salvaguardas estruturais: reservar uma parte do financiamento para projectos sem ângulo de IA; garantir que o trabalho sobre IA é avaliado por revisores com formações diversas; recompensar originalidade e profundidade teórica, não apenas velocidade de publicação; e incentivar os investigadores a perguntarem-se que problemas continuam a ser relevantes mesmo que não sejam computacionalmente resolúveis.

A ironia final está bem resumida na última frase do artigo: “Ao alertar que a IA nos pode fazer pensar de forma igual, começámos a pensar de forma igual sobre a IA.” É uma simetria que, dizem os autores, devia fazer-nos parar para pensar.

Subscreve a nossa newsletter, onde todas as terças e quintas podes ler as melhores histórias do mundo da inovação e das empresas em Portugal e lá fora.