A Meta, proprietária de plataformas como Facebook, Instagram e WhatsApp, apresentou uma carta-resposta aos questionamentos da Advocacia-Geral da União (AGU) sobre suas novas políticas de moderação de conteúdo. A principal mudança anunciada foi a substituição do Programa de Verificação de Fatos por agências independentes de checagem de informações pela política de notas da comunidade, modelo que já é utilizado em outras redes sociais. Essa mudança, inicialmente válida apenas nos Estados Unidos, visa promover discussões mais permissivas, mas a empresa assegura que continuará a remover conteúdos falsos que representem riscos significativos à segurança ou à integridade de processos políticos, como eleições.
Em resposta às preocupações da AGU sobre o impacto dessas mudanças na prevenção de discursos de ódio, a Meta afirmou que sua abordagem busca um equilíbrio entre a liberdade de expressão e a segurança dos usuários. A empresa argumentou que a moderação excessiva havia prejudicado debates políticos legítimos e impedia a livre expressão. Além disso, a Meta explicou que as novas regras visam simplificar as políticas e garantir maior liberdade para conversas sobre temas sensíveis, como orientação sexual e questões de gênero, sem permitir, no entanto, discursos que incitem violência ou discriminação.
A Meta também reafirmou seu compromisso com a proteção dos direitos humanos, conforme os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos. A empresa se comprometeu a manter medidas de proteção para públicos vulneráveis, como os jovens, e continuar a atuar em situações de alto risco, como terrorismo e exploração sexual infantil. As mudanças implementadas também buscam aprimorar a eficácia dos sistemas automatizados de moderação, priorizando casos mais graves e evitando erros em sua aplicação.