A moderação de conteúdo nas plataformas digitais, crucial para evitar a propagação de desinformação e discursos de ódio, tem sido cada vez mais realizada por inteligência artificial (IA). Apesar das expectativas em torno dessa tecnologia, profissionais da área afirmam que a IA não consegue detectar de forma confiável publicações que violem as políticas das empresas, resultando em falhas em até 70% das avaliações. Essa situação levanta preocupações sobre a segurança dos ambientes virtuais, especialmente para crianças, enquanto gigantes da tecnologia, como TikTok e X, optam por substituir moderadores humanos por sistemas automatizados em busca de redução de custos. Embora as empresas reconheçam os erros frequentes da IA, a pressão por eficiência e a dificuldade em contratar moderadores humanos continuam a impulsionar essa transição, mesmo diante das limitações da tecnologia em compreender nuances culturais e linguísticas.