Publicações recentes nas redes sociais espalharam a informação de que o ChatGPT, sistema de inteligência artificial da OpenAI, teria deixado de oferecer conselhos médicos e jurídicos. A empresa, no entanto, negou o boato e afirmou que não houve qualquer mudança no funcionamento da ferramenta.
A confusão surgiu após internautas interpretarem de forma incorreta uma atualização nas políticas de uso da OpenAI, publicada na última quarta-feira (29/10).
Leia também
A nova versão do documento lista uma série de usos proibidos da inteligência artificial, entre eles o “fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado”.
De acordo com o documento publicado pela OpenAI, essa regra não é nova — ela já constava nas políticas anteriores, divulgadas em janeiro deste ano — e serve apenas para reforçar que o ChatGPT não deve ser utilizado como substituto de um profissional habilitado, mas sim como um recurso de apoio à compreensão de informações complexas.
O esclarecimento foi feito por Karan Singhal, chefe de IA em saúde da empresa, em uma publicação na rede social X. Ele escreveu:
“Não é verdade. Apesar das especulações, esta não é uma mudança recente em nossos termos. O comportamento do modelo permanece inalterado. O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde”.
Not true. Despite speculation, this is not a new change to our terms. Model behavior remains unchanged. ChatGPT has never been a substitute for professional advice, but it will continue to be a great resource to help people understand legal and health information. https://t.co/fCCCwXGrJv
— Karan Singhal (@thekaransinghal) November 3, 2025
Para o oncologista Rafael Botan, especialista em inteligência artificial, a ferramenta pode ser útil como apoio educacional, desde que o usuário saiba interpretar corretamente suas respostas.
“Na prática clínica, vejo o ChatGPT como um suporte interessante, ajudando o paciente a compreender termos médicos, exames e condutas gerais. Mas é essencial lembrar que informações críticas devem sempre ter sua fonte confirmada. Ela tem valor como recurso complementar, mas não substitui o julgamento individualizado de um profissional”, considera.
Segundo Botan, os melhores usos da inteligência artificial por pacientes são em situações pontuais — como entender sintomas inespecíficos, termos técnicos ou quando buscar atendimento. Mas, o risco está em o paciente interpretar uma resposta genérica como um diagnóstico.
“A IA pode parecer convincente, mas carece de contexto clínico e histórico. Quando erra, erra muito convincentemente, e isso é perigoso”, alerta o médico.
Para ele, a responsabilidade do uso é sempre de quem busca esse tipo de informação, mas reforça que a ferramenta oferece informação, não orientação médica. E que a diferença está no vínculo: a orientação profissional e o cuidado humano.
O especialista em comunicação digital Gabriel Goerhing acrescenta que o caso evidencia a importância da educação digital e da transparência no uso dessas ferramentas.
“Quando uma empresa como a OpenAI reconhece seus limites, ela demonstra responsabilidade e compromisso ético. Isso reforça a ideia de que a IA deve atuar como apoio, não como substituto de especialistas humanos”, afirma.
Até a publicação desta reportagem, a OpenAI continua respondendo normalmente aos usuários sobre questões médicas e jurídicas e reforça na sua última atualização que não é uma plataforma de diagnósticos ou consultoria profissional.
Siga a editoria de Saúde e Ciência no Instagram e fique por dentro de tudo sobre o assunto!