Recentemente, surgiram boatos nas redes sociais afirmando que o ChatGPT, da OpenAI, havia parado de oferecer conselhos médicos e jurídicos. A empresa rapidamente desmentiu essas alegações, esclarecendo que não houve qualquer mudança nas diretrizes de uso da ferramenta. A confusão teve início devido a uma atualização em suas políticas, divulgada no dia 29 de outubro, que muitos interpretaram de forma equivocada.
A nova versão das políticas enfatiza que o ChatGPT não deve ser utilizado como substituto de profissionais qualificados. Apesar de reforçar restrições sobre o tipo de aconselhamento que pode ser oferecido, a OpenAI destacou que a funcionalidade do modelo permanece inalterada. Segundo Karan Singhal, chefe de IA em saúde da OpenAI, a ferramenta pode ajudar os usuários a compreender melhor informações complexas, mas não deve ser vista como uma fonte de aconselhamento profissional.
Especialistas ressaltaram a importância de usar a inteligência artificial como um complemento, e não como um substituto para o julgamento clínico. O oncologista Rafael Botan alertou sobre os riscos de interpretações equivocadas das respostas do ChatGPT, enquanto o especialista em comunicação digital Gabriel Goerhing enfatizou a necessidade de educação digital. A OpenAI continua a responder normalmente a questões de saúde e direito, mantendo seu compromisso com a ética e a responsabilidade no uso da IA.

