Fim de uma era? A OpenAI proibiu o ChatGPT de dar conselhos médicos, legais ou financeiros
por Marta Amaral | 4 de Novembro, 2025
Durante algum tempo, foi tentador usar modelos de inteligência artificial como o ChatGPT como solução para todas as crises das nossas vidas.
Tens uma mancha estranha? Pergunta ao ChatGPT. Precisas de um contrato de trabalho? Pergunta ao ChatGPT. Mas essa era terá acabado oficialmente. Cientes dos riscos legais, as gigantes tecnológicas estão agora a travar a fundo.
Desde 29 de outubro, a OpenAI atualizou as suas políticas de utilização. As novas regras, agora publicadas no site oficial da empresa, impõem limites claros ao uso de ferramentas como o ChatGPT, transformando-o oficialmente numa “ferramenta pedagógica” e não num “consultor”.
O objetivo é reforçar a segurança, a responsabilidade e a transparência no uso da inteligência artificial, num momento em que os riscos legais e éticos se acumulam para as grandes tecnológicas.
A razão? Como refere a publicação do canal Nexta, “a legislação e o medo de responsabilidades legais apertaram o cerco e as Big Tech não querem processos em tribunal.”
Fim dos conselhos personalizados
Entre as alterações mais significativas está a proibição do ChatGPT fornecer aconselhamento médico, jurídico ou financeiro específico. A IA pode explicar conceitos ou princípios gerais, mas não pode indicar diagnósticos, redigir contratos legais, sugerir investimentos ou recomendar medicamentos.
A OpenAI justifica esta limitação com o facto destes domínios exigirem profissionais licenciados e responsabilidade legal, algo que os modelos de linguagem não podem assegurar.
“Os serviços da OpenAI não devem substituir profissionais de saúde, advogados ou consultores financeiros”, lê-se no documento.
Proibição de usos perigosos ou ilegais
As novas políticas também proíbem explicitamente o uso da IA em contextos que possam colocar pessoas em risco. Entre as práticas banidas estão:
- O desenvolvimento ou uso de armas;
- A promoção de violência, assédio ou difamação;
- A incitação ao suicídio ou à automutilação;
- A produção de conteúdos sexuais não consensuais;
- E o acesso indevido a sistemas informáticos de terceiros.
A OpenAI alerta que qualquer violação poderá levar à suspensão da conta ou à proibição permanente de acesso.
Privacidade e proteção de dados
Outra área reforçada é a da proteção da privacidade. Os utilizadores não podem usar o ChatGPT ou outras ferramentas da OpenAI para:
- Recolher ou armazenar dados pessoais sem consentimento;
- Criar bases de dados de reconhecimento facial;
- Usar a imagem ou voz de pessoas reais para gerar conteúdos falsos ou enganosos.
A empresa destaca que o respeito pela privacidade é essencial para evitar o uso abusivo da IA em contextos de vigilância, fraude ou manipulação.
Proteção de menores
As políticas incluem ainda medidas específicas para proteger crianças e adolescentes. Fica proibida qualquer forma de:
- Conteúdo sexual ou violento envolvendo menores;
- “Grooming” ou tentativas de contacto abusivo;
- Exposição de menores a conteúdos impróprios;
- Jogos ou interações que possam incentivar comportamentos perigosos.
Evitar manipulação e interferência
A OpenAI reforça também a proibição de usar o ChatGPT para influenciar, enganar ou manipular pessoas. Estão vedados:
- Conteúdos de desinformação política ou eleitoral;
- Fraudes, spam ou falsificação de identidade;
- Automação de decisões de alto risco (em áreas como saúde, educação, crédito ou emprego) sem supervisão humana.
A empresa sublinha que a “IA deve empoderar pessoas, não manipulá-las”.
“Atualizações contínuas e supervisão”
A OpenAI reserva-se ao direito de atualizar estas políticas regularmente, à medida que surgem novas formas de utilização da tecnologia ou novos riscos.
A empresa recorda que todos os utilizadores dos seus serviços devem cumprir estas regras, que fazem parte de um sistema mais amplo de governação, segurança e responsabilidade ética.
Com estas novas medidas, a OpenAI procura equilibrar inovação e segurança, evitando que o ChatGPT se transforme num risco jurídico ou social.
A IA pode continuar a ensinar, explicar e apoiar mas não pode decidir, diagnosticar nem aconselhar. “A era do chatbot sabe-tudo terminou oficialmente”.