Na terça-feira, 7, Mark Zuckerberg, CEO da Meta, anunciou alterações significativas nas políticas de moderação de conteúdo das redes sociais da empresa, incluindo Facebook, Instagram e Threads. A principal mudança foi a substituição do programa de checagem de fatos por um novo modelo denominado “Notas de comunidade”. Nesse sistema, serão os próprios usuários que terão a responsabilidade de identificar e denunciar conteúdos considerados prejudiciais, utilizando mensagens curtas para avaliar a relevância das informações postadas. A Meta espera que essa abordagem seja mais imparcial, uma vez que, em vez de agências especializadas, será a comunidade de usuários a responsável pela moderação.
O novo sistema de “Notas de comunidade” já foi implementado por plataformas como o X, de Elon Musk, e tem como premissa envolver a participação ativa dos usuários na avaliação de conteúdos. A cada denúncia, outros usuários poderão votar se consideram a informação útil ou não, com base em critérios como clareza e fontes. Embora a Meta tenha afirmado que a moderação será mais flexível, ela manterá controle sobre conteúdos claramente nocivos, como discursos extremistas, e não se envolverá em questões relacionadas a temas sensíveis como gênero, sexualidade ou imigração, que podem gerar controvérsias.
A mudança de estratégia gerou discussões sobre os potenciais riscos do modelo, especialmente quanto à disseminação de desinformação. Antes da alteração, a Meta mantinha um programa robusto de checagem de fatos, em colaboração com diversos veículos de comunicação, para garantir a precisão das informações circulando nas redes. Com a descentralização da moderação, críticos alertam para o aumento da vulnerabilidade das plataformas a conteúdos falsos ou manipulados, dado que a responsabilidade de identificar e sinalizar informações passa a depender da boa-fé dos usuários.