A Meta anunciou mudanças significativas em sua política de moderação de conteúdo nas plataformas Facebook, Instagram e Threads, com o objetivo de ampliar a liberdade de expressão. A principal alteração foi o fim do sistema de checagem de fatos, substituindo-o por um modelo em que os próprios usuários poderão denunciar conteúdos e adicionar correções, semelhante ao sistema adotado pelo X (antigo Twitter). Essa mudança visa diminuir a intervenção de moderadores externos, mas especialistas alertam que a medida pode resultar em um aumento da circulação de desinformação e discursos de ódio, criando um ambiente mais tóxico e menos seguro para os usuários.
A decisão da Meta de relaxar os filtros automáticos de conteúdo, que antes monitoravam a conformidade das postagens com as regras da plataforma, também gerou preocupações. Embora a empresa afirme que essas ferramentas eram propensas a erros, especialistas acreditam que a diminuição do controle pode abrir espaço para conteúdos prejudiciais, como spam, pornografia e mensagens discriminatórias. A redução da moderação profissional e a centralização das revisões de conteúdo nos EUA também podem afetar a transparência e a governança democrática da plataforma, diminuindo a pluralidade de opiniões e a confiança dos usuários.
Essa mudança no modelo de moderação reflete uma tendência crescente entre grandes redes sociais, com a Meta seguindo os passos de outras plataformas, como o X, sob a gestão de Elon Musk. Especialistas em mídia e direitos digitais têm expressado preocupações sobre as consequências dessas alterações para grupos vulneráveis, além do impacto na qualidade do debate público online. A medida, que visa equilibrar a liberdade de expressão com a segurança online, pode, no entanto, enfraquecer os esforços globais para um ambiente digital mais inclusivo e democrático.