Nos últimos anos, a inteligência artificial tem desempenhado um papel cada vez mais significativo na política, alterando como os eleitores obtêm informações sobre candidatos e temas eleitorais. Com a aproximação das eleições de meio de mandato de 2026, modelos de linguagem como ChatGPT estão sendo amplamente utilizados, levantando questões sobre a transparência e a imparcialidade das informações que circulam. A rápida aceitação da IA neste contexto oferece tanto oportunidades quanto riscos, especialmente em relação à integridade do processo democrático.
Estudos recentes indicam que esses modelos podem refletir viés em suas respostas, ajustando-se com base em sinais demográficos e políticos. Isso significa que eleitores podem receber informações filtradas que não necessariamente representam uma visão objetiva da realidade, mas sim uma interpretação influenciada por algoritmos. Portanto, a necessidade de auditorias independentes e sistemáticas torna-se crucial para entender como essas tecnologias moldam a percepção pública e o debate político.
Diante desse cenário, pesquisadores e responsáveis políticos devem trabalhar em conjunto para promover uma supervisão adequada da IA, permitindo que análises independentes sejam realizadas. A falta de clareza sobre a origem das informações e os critérios de avaliação dos modelos pode levar a distorções na percepção dos eleitores. Se não forem tomadas medidas adequadas, o impacto da IA na política pode se revelar tão problemático quanto os desafios enfrentados com a ascensão das redes sociais.

