A Advocacia-Geral da União (AGU) divulgou um relatório sobre moderação de conteúdo nas plataformas digitais, que foi elaborado após uma audiência pública sobre o tema. O único aporte substancial no documento veio do LinkedIn, que detalhou suas políticas de moderação em três camadas: inteligência artificial, revisão humana e denúncias de usuários. A plataforma ressaltou seu foco em um ambiente profissional, excluindo conteúdos como paródias ou páginas de animais, e afirmou que pode limitar o alcance ou remover publicações que violem suas diretrizes.
O LinkedIn explicou que sua primeira camada de moderação é feita por meio de ferramentas automatizadas de inteligência artificial, que analisam o conteúdo com base em palavras-chave e outras variáveis. Caso algum conteúdo seja sinalizado, ele passa por uma segunda camada, onde moderadores humanos, treinados pela própria plataforma, fazem uma análise detalhada. A terceira camada envolve a possibilidade de os próprios usuários denunciarem conteúdos, que são então avaliados pela equipe de moderação.
A audiência pública, realizada em 22 de janeiro, foi convocada para discutir o combate à desinformação e ao discurso de ódio nas plataformas digitais. Embora nenhuma grande empresa tenha enviado representantes ao evento, o ministro Jorge Messias declarou que as plataformas se comprometeram a enviar contribuições posteriormente. O relatório da AGU será enviado ao Congresso e ao Supremo Tribunal Federal (STF), com o objetivo de subsidiar decisões sobre a regulação das plataformas digitais no Brasil.