A crescente utilização de ferramentas de inteligência artificial, como o ChatGPT, para diagnósticos médicos levanta preocupações sobre sua eficácia e segurança. Especialistas alertam que, embora a IA possa auxiliar em algumas condições, sua aplicação inadequada pode resultar em diagnósticos errôneos e atrasos no tratamento, colocando a saúde dos pacientes em risco. Um caso recente destacou essa questão, onde um paciente que confiou no ChatGPT adiou a busca por atendimento médico após um acidente vascular cerebral, o que poderia ter sido fatal.
De acordo com Shunsuke Koga, professor da Universidade da Pensilvânia, a IA não deve substituir médicos, pois apresenta riscos significativos de desinformação. Koga enfatiza que, apesar do potencial da tecnologia para melhorar processos de diagnóstico, a falta de experiência médica dos usuários pode levar a interpretações equivocadas das informações fornecidas.
Além disso, a confiança excessiva nas respostas da IA é uma preocupação crescente. Ferramentas como o ChatGPT são projetadas para gerar respostas que parecem corretas, mas não possuem a capacidade de raciocínio humano. Isso pode criar uma falsa sensação de segurança entre os usuários, que podem não perceber as limitações da tecnologia. Especialistas recomendam que as pessoas busquem sempre a opinião de profissionais de saúde qualificados antes de tomar decisões relacionadas à saúde com base em informações obtidas online.