A OpenAI fez uma atualização importante nas Políticas de Uso e Termos de Serviço do ChatGPT, deixando claro que a ferramenta não pode mais oferecer orientações médicas e jurídicas sem a supervisão de um profissional licenciado.

Geração: FDR
A mudança, que entrou em vigor em 29 de outubro de 2025, foi um movimento estratégico para garantir o uso ético e responsável da inteligência artificial (IA), especialmente em áreas sensíveis, como saúde e direito. Mas o que isso significa na prática? Será que o ChatGPT realmente parou de fornecer essas orientações? Vamos entender as mudanças.
O que a atualização significa?
De acordo com a OpenAI, as novas diretrizes não restringem as capacidades técnicas do ChatGPT, mas reforçam a necessidade de supervisão profissional em áreas como diagnósticos médicos e consultoria jurídica. Paulo Henrique Fernandes, advogado e especialista em tecnologia, afirma que a restrição apenas tornou mais explícito que a IA não deve ser usada como substituta de médicos, advogados ou psicólogos.
Por exemplo, ChatGPT não pode mais oferecer diagnósticos médicos, interpretar radiografias ou ressonâncias magnéticas. Também está proibido de fornecer aconselhamento jurídico personalizado ou elaborar documentos legais sem revisão humana.
O que mudou de fato?
Na prática, o ChatGPT ainda pode fornecer explicações educativas e informações gerais. A ferramenta continua a ser útil em contextos como:
- Educação médica: Como explicar sintomas, termos médicos e indicar quando procurar atendimento profissional.
- Explicações jurídicas: Resumos de legislações e conceitos jurídicos, auxílio na redação de textos jurídicos ou interpretação de jurisprudência.
O que realmente mudou é que, agora, fica mais claro que o ChatGPT é uma ferramenta de apoio e não um substituto de profissionais qualificados.
O que está proibido agora?
A OpenAI reforçou que, com a atualização, o ChatGPT está proibido de realizar atividades como:
- Diagnóstico médico personalizado.
- Análise de imagens médicas como radiografias e exames.
- Consultoria jurídica sem a supervisão de um advogado licenciado.
- Automação de decisões críticas em áreas sensíveis sem revisão humana.
Essas restrições foram impostas para evitar riscos e garantir que o uso da IA seja seguro em contextos onde a responsabilidade técnica é essencial.
O que continua sendo permitido?
Apesar das restrições, o ChatGPT segue sendo uma ferramenta valiosa para informação e aprendizado. Algumas funcionalidades continuam permitidas:
- Na área médica: Explicar causas gerais de sintomas, fornecer orientações sobre cuidados com a saúde e sugerir fontes confiáveis como o Ministério da Saúde ou a OMS.
- Na área jurídica: Auxiliar na estratégia de argumentos, explicação de termos jurídicos e no resumo de leis e jurisprudência.
Essas funções são consideradas educacionais e informativas, sem a intenção de substituir profissionais da área.
Por que a OpenAI fez essas mudanças?
As novas políticas refletem uma postura ética e regulatória da OpenAI, que busca se antecipar a riscos legais e regulatórios. A empresa não restringiu a tecnologia, mas fez uma ajuste estratégico para garantir que a IA seja utilizada de forma responsável em áreas sensíveis, onde o erro pode ter consequências sérias.
A IA continua a ser uma ferramenta poderosa de apoio, mas não pode substituir a responsabilidade de um especialista licenciado, seja na medicina ou no direito.
As mudanças nas políticas do ChatGPT não significam que a IA parou de ser útil, mas sim que ela passou a ser utilizada de maneira mais segura e ética. O ChatGPT agora é mais claro quanto às limitações em áreas que exigem licença profissional, como saúde e direito.
Apesar disso, a ferramenta continua sendo um excelente apoio para educação, informação e aprendizado em diversas outras áreas.
Confira o PROMPT que vai te ajudar a gerar um Bobbie Goods exclusivo.





