Uso o ChatGPT. Onde vão parar as minhas conversas?
por Gabriel Lagoa | 19 de Agosto, 2025
Há conversas com os chatbots que não são privadas: as empresas podem armazená-las, usá-las para treino e partilhá-las com autoridades.
Quando se utiliza o ChatGPT ou outros chatbots de inteligência artificial, as conversas que mantém não desaparecem no mundo digital. Sam Altman, CEO da OpenAI, reconhece que “as pessoas desabafam sobre os seus problemas médicos mais sensíveis ou o que quer que seja com o ChatGPT”. Isto levou-o a considerar a implementação de encriptação no serviço, embora ainda não exista um cronograma definido, segundo a Axios.
A questão da privacidade nos modelos de linguagem tornou-se o próximo campo de batalha no debate sobre IA, mesmo enquanto persistem conflitos sobre direitos de autor, precisão e preconceitos. De acordo com o jornal digital norte-americano, os críticos afirmam que estes modelos recolhem e frequentemente divulgam informações pessoais obtidas da web, muitas vezes sem a permissão dos envolvidos.
O que acontece aos dados nas conversas
A OpenAI está a considerar adicionar encriptação ao ChatGPT e, provavelmente, vai começar pelas conversas temporárias. Estas conversas não aparecem no histórico nem treinam modelos, mas a OpenAI pode manter uma cópia até 30 dias por razões de segurança.
O problema é que, ao contrário das mensagens entre pessoas, nos chatbots a empresa que fornece o serviço precisa de “ler” as mensagens para poder responder. Isto significa que a OpenAI tem sempre acesso às conversas dos utilizadores, mesmo que as proteja durante o envio. Por isso, a empresa continua a ter informações sensíveis que pode ser obrigada a partilhar com as autoridades.
A Apple abordou este desafio com o seu “Private Cloud Compute” para a Apple Intelligence, que permite que as consultas sejam executadas nos servidores da Apple sem tornar os dados amplamente disponíveis à empresa.
As várias formas de exposição de dados
Os dados pessoais podem ser expostos de várias maneiras nos sistemas de IA, desde revelações acidentais até tentativas deliberadas de aceder a informações protegidas, como conta a Axios. Os modelos podem revelar informações sensíveis baseadas no que aprenderam durante o treino ou nas perguntas que recebem dos utilizadores.
As empresas podem guardar as perguntas e respostas dos utilizadores para melhorar os seus sistemas, potencialmente armazenando dados sensíveis sem pedir autorização, segundo um estudo do Comité Europeu para a Proteção de Dados. Se estas conversas forem usadas para treinar o modelo, e em caso de ataque, há o risco de os atacantes poderem tentar manipular o sistema introduzindo informações falsas ou perigosas.
E os agentes de IA?
Os agentes de IA introduzem uma complexidade adicional devido às suas múltiplas interações com outros sistemas e aplicações. O que é um agente de IA? É um sistema inteligente e autónomo que realiza tarefas específicas sem intervenção humana.
Mas, para executar as tarefas de forma eficaz, os agentes de IA precisam frequentemente de acesso a uma vasta gama de dados do utilizador: atividade na internet, aplicações pessoais como email e calendários, e sistemas de terceiros como contas financeiras.
Este nível de acesso aumenta o risco de exposição não autorizada de dados, particularmente se os sistemas do agente forem comprometidos, alerta o TechCrunch. Citado pelo site de notícias, Meredith Whittaker, presidente da Signal, uma aplicação de mensagens, vai mais longe e diz que usar agentes de IA é como “pôr o cérebro num frasco”.
Qual o menos invasivo?
Um estudo da Incogni analisou vários modelos de IA usando 11 critérios para avaliar riscos de privacidade. O Le Chat da francesa Mistral AI foi considerado o modelo que menos invade a privacidade porque recolhe dados pessoais “limitados” e tem bom desempenho em questões específicas de privacidade da IA.
O ChatGPT da OpenAI ficou em segundo lugar devido à sua política de privacidade “clara” que explica como são tratados os dados dos utilizadores. No entanto, os investigadores levantaram algumas preocupações sobre como os modelos são treinados e como os dados do utilizador “interagem com as ofertas da plataforma”.
O que esperar do futuro?
Sam Altman e a OpenAI defendem algumas proteções contra o acesso governamental a certos dados, especialmente quando as pessoas dependem do ChatGPT para aconselhamento médico e jurídico, diz a Axios. O CEO da OpenAI argumenta que se a IA pode fornecer conselhos semelhantes aos de médicos e advogados, deveria beneficiar da mesma confidencialidade que existe para essas profissões.
A OpenAI ainda não viu um grande número de pedidos de dados de clientes das autoridades. “Os números ainda são muito pequenos para nós, como dois dígitos por ano, mas em crescimento”, revela o executivo. “Bastará um caso realmente grande para as pessoas dizerem: está bem, realmente temos de ter uma abordagem diferente aqui.”
O próprio Altman admite que esta questão não estava originalmente no seu radar, mas tornou-se uma prioridade depois de perceber como as pessoas usam o ChatGPT e quantos dados sensíveis partilham. Esta consciencialização “radicalizou-me para pensar que a confidencialidade da IA é uma coisa muito importante a perseguir”.