Uma pesquisa conduzida pela BBC revelou que os assistentes de inteligência artificial, como ChatGPT, Copilot, Gemini e Perplexity, apresentam problemas significativos ao gerar respostas sobre notícias e eventos atuais. Mais da metade das respostas fornecidas por essas ferramentas mostraram distorções, imprecisões e informações enganosas. Em um exemplo, o Copilot da Microsoft cometeu um erro grave ao relatar eventos envolvendo uma vítima de crime, distorcendo a cronologia dos fatos. Outros assistentes, como o ChatGPT, também forneceram respostas incorretas sobre figuras políticas, incluindo declarações sobre líderes que já haviam falecido.
Além disso, a pesquisa apontou imprecisões em questões relacionadas à saúde e política. O Gemini, por exemplo, forneceu informações equivocadas sobre as recomendações do NHS em relação ao uso de cigarros eletrônicos. O Perplexity, por sua vez, cometeu enganos ao relatar a data de falecimento de personalidades públicas e ao distorcer declarações feitas por familiares após perdas importantes. Esses erros geram preocupações sobre a confiabilidade e a responsabilidade das plataformas de IA ao lidarem com questões delicadas.
A pesquisa destaca a necessidade de melhorias na precisão e na confiabilidade das respostas de IA, especialmente quando se trata de informações sensíveis. O uso dessas ferramentas em contextos jornalísticos e educativos exige um maior cuidado para evitar disseminação de desinformação. As conclusões da pesquisa sublinham a importância de um controle rigoroso e de uma supervisão contínua das respostas geradas por sistemas de inteligência artificial.