Após a prisão do ex-presidente venezuelano Nicolás Maduro em 3 de janeiro de 2026, começaram a circular nas redes sociais vídeos gerados por inteligência artificial que simulam celebrações populares em Caracas. Esses conteúdos, que mostram multidões agradecendo aos Estados Unidos pela queda do regime chavista, têm acumulado milhões de visualizações em plataformas como TikTok, Instagram e X, levantando preocupações sobre a propagação de desinformação.
O impacto da desinformação não se limita à Venezuela, pois políticos brasileiros, especialmente da direita, têm compartilhado um vídeo falsamente atribuído ao Movimento dos Trabalhadores Rurais Sem Terra (MST). Apesar de o MST ter desmentido a gravação, que sugere uma invasão aos Estados Unidos para libertar Maduro, figuras como o senador Cleitinho Azevedo incentivaram a divulgação do material, destacando a influência que essas narrativas enganosas podem ter no debate político nacional.
O fenômeno levanta questões sobre a eficácia dos sistemas de verificação de conteúdo nas redes sociais, especialmente em momentos de crise. Embora plataformas como TikTok e Meta tenham anunciado ferramentas para detectar desinformação, o caso de Maduro evidencia que tais medidas ainda são insuficientes. A crescente pressão para regulamentar o uso de inteligência artificial em mídias digitais se intensifica, refletindo a necessidade urgente de proteger a integridade da informação em um cenário global cada vez mais complexo.

