Voltar | Inteligência Artificial

Character.AI proíbe menores de 18 anos após processo judicial sobre suicídio de adolescente

por The Next Big Idea | 30 de Outubro, 2025

A empresa de chatbots Character.AI vai proibir utilizadores com menos de 18 anos de interagir com os seus companheiros virtuais a partir do final de novembro, depois de meses sob intenso escrutínio legal e mediático.

A decisão surge após a empresa — que permite aos utilizadores criar personagens com quem podem manter conversas abertas — enfrentar processos judiciais e críticas sobre o impacto destes chatbots na saúde mental dos adolescentes, incluindo uma ação movida pela família de um jovem de 14 anos que se suicidou.

“Estamos a fazer estas alterações na nossa plataforma para menores de 18 anos à luz da evolução do contexto em torno da IA e dos adolescentes”, afirmou a empresa no seu anúncio, citado pelo The Guardian. “Vimos notícias recentes a levantar questões, e recebemos perguntas de reguladores, sobre o conteúdo que os adolescentes podem encontrar ao conversar com IA e sobre como o chat aberto pode afetá-los, mesmo quando os controlos de conteúdo funcionam perfeitamente”.

O caso mais mediático envolve Sewell Setzer III, de 14 anos, que tirou a própria vida depois de alegadamente desenvolver uma ligação emocional com um personagem criado na plataforma. A família processou a Character.AI, e descreveu a tecnologia como “perigosa e não testada”. Desde então, outras famílias apresentaram processos semelhantes.

Segundo o jornal britânico, o Social Media Law Center apresentou este mês três novas ações judiciais contra a empresa, representando crianças que “morreram por suicídio ou que alegadamente desenvolveram relações de dependência com os chatbots”.

A Character.AI anunciou que, até 25 de novembro, irá também implementar uma “funcionalidade de verificação etária” para garantir que “os utilizadores recebem a experiência adequada à sua idade”.

“Não tomamos de ânimo leve a decisão de remover o chat aberto de personagens”, escreveu ainda a empresa, “mas acreditamos que é a decisão certa, dadas as questões que têm sido levantadas sobre como os adolescentes interagem — e devem interagir — com esta nova tecnologia”.

A Character.AI não é a única empresa sob pressão. De acordo com o The Guardian, a família de Adam Raine, de 16 anos, processou também a OpenAI, depois de alegar que a empresa “priorizou o envolvimento dos utilizadores em detrimento da sua segurança”. Em resposta, a OpenAI introduziu novas diretrizes de segurança para adolescentes e revelou que mais de um milhão de pessoas por semana demonstram intenções suicidas ao usar o ChatGPT, enquanto centenas de milhares apresentam sinais de psicose.

Nos Estados Unidos, a regulação da inteligência artificial ainda é incipiente, mas novas medidas começam a surgir. Em outubro de 2025, a Califórnia tornou-se o primeiro estado a aprovar uma lei sobre IA com regras específicas para menores, incluindo a proibição de conteúdo sexual e alertas periódicos a lembrar que o utilizador está a falar com uma máquina.

A nível federal, os senadores Josh Hawley (Missouri) e Richard Blumenthal (Connecticut) apresentaram um projeto de lei que proíbe menores de usar companheiros de IA e obriga as empresas a verificar a idade dos utilizadores.

“Mais de 70% das crianças americanas estão agora a usar estes produtos de IA”, disse Josh Hawley à NBC News. “Os chatbots desenvolvem relações com as crianças usando empatia falsa e estão a encorajar o suicídio. No Congresso, temos o dever moral de criar regras claras para evitar mais danos causados por esta nova tecnologia”.

Subscreve a nossa newsletter, onde todas as terças e quintas podes ler as melhores histórias do mundo da inovação e das empresas em Portugal e lá fora.