Um estudo da Semrush, realizado em junho de 2025, revelou que 40,1% das respostas de modelos de linguagem como ChatGPT e Perplexity se baseiam em conteúdos do Reddit. A pesquisa também identificou outras fontes relevantes, como a Wikipedia, com 26,3%, e o YouTube, com 23,5%, enquanto o Google ficou próximo com 23,3%. Esses dados indicam que uma parte significativa da chamada inteligência artificial provém de fóruns de opinião e redes sociais, levantando questões sobre a confiabilidade das informações geradas.
A pesquisa destaca que a confiança dos usuários na IA ainda é limitada, com apenas 41% dos americanos afirmando confiar na tecnologia. Embora 61% dos executivos brasileiros acreditem que a IA generativa pode melhorar a tomada de decisões estratégicas, muitos não sabem a origem dos dados utilizados. Isso evidencia uma assimetria entre a confiança no resultado e a fragilidade das fontes de informação, o que pode ter implicações sérias em áreas críticas como saúde e finanças.
O estudo também sugere que a era da IA exige um maior ceticismo e pensamento crítico por parte dos usuários. A dependência de informações provenientes de plataformas colaborativas pode levar a interpretações errôneas e decisões mal fundamentadas. Assim, enquanto a inteligência artificial pode organizar dados complexos, a habilidade humana de questionar e discernir continua sendo essencial para evitar riscos associados à desinformação.