A Meta, empresa responsável pelo Facebook e Instagram, anunciou o fim do seu programa de verificação de fatos, começando pelos Estados Unidos. A medida implica na substituição dos verificadores de terceiros por um sistema em que os próprios usuários poderão adicionar correções a postagens, similar ao modelo adotado pela plataforma X. Além disso, a empresa passará a focar em combates a violações legais de alta gravidade e reduzirá a moderação de conteúdos de menor impacto, dependendo mais de denúncias de usuários. O CEO Mark Zuckerberg afirmou que essa mudança visa melhorar a confiança nas plataformas, mas reconheceu que ela pode resultar em uma maior visibilidade de postagens controversas.
Enquanto isso, no Brasil, o Supremo Tribunal Federal (STF) reafirmou a necessidade de as redes sociais respeitarem as leis locais para continuarem a operar no país. O ministro Alexandre de Moraes destacou que as plataformas digitais não devem ser usadas para disseminar discursos de ódio ou realizar ações antidemocráticas, citando o impacto das redes sociais nos ataques de 8 de janeiro de 2023. O STF também está em processo de julgamento sobre a responsabilidade das redes sociais por conteúdos prejudiciais, mesmo sem decisão judicial prévia, com base no Marco Civil da Internet.
As recentes mudanças da Meta também envolvem a reestruturação de sua equipe de moderação de conteúdo, com a transferência das operações de segurança e confiança para o estado do Texas. Ao mesmo tempo, a empresa reforçou que, sem a moderação independente, o foco será em tornar as plataformas mais abertas ao debate político, mas com um novo enfoque nas consequências legais de postagens. Com isso, surge uma discussão sobre o papel das grandes empresas de tecnologia no controle de conteúdos e na prevenção de abusos online.