O Supremo Tribunal Federal (STF) retomou, em 5 de dezembro, o julgamento sobre a responsabilidade das plataformas digitais em relação aos conteúdos postados por seus usuários. O principal ponto em debate é se as empresas devem ser responsabilizadas por danos causados por conteúdos irregulares, como discursos de ódio e fake news, mesmo sem uma ordem judicial para remover essas publicações. O ministro Dias Toffoli, relator do caso, defendeu que as plataformas devem ser responsabilizadas de forma objetiva em situações graves, como crimes contra o Estado Democrático de Direito, terrorismo, racismo, violência contra crianças, mulheres e grupos vulneráveis, e a disseminação de desinformação eleitoral.
O julgamento também abordou a necessidade de as plataformas digitais tomarem providências para remoção de conteúdos nocivos, inclusive com notificações extrajudiciais, sem depender exclusivamente de ordens judiciais. Toffoli argumentou que, além das medidas já previstas no Marco Civil da Internet, as plataformas devem ser proativas na moderação de conteúdo, devido ao impacto potencial que certas publicações podem ter na sociedade e na democracia. O ministro Alexandre de Moraes acrescentou que a autorregulação das redes sociais falhou, evidenciado pelos recentes casos de violência e desinformação, e reforçou a necessidade de uma regulação mais rigorosa.
Além disso, o STF está considerando a possibilidade de elaborar uma tese jurídica que será aplicada a casos similares em instâncias inferiores. O julgamento tem grande repercussão, com mais de 345 processos relacionados aguardando uma definição. A Corte debate se as plataformas devem ser responsabilizadas sem que haja uma ordem judicial específica, especialmente em contextos onde há violação de direitos fundamentais e danos à sociedade. O debate é visto como crucial para determinar os limites da liberdade de expressão e a responsabilidade das empresas no ambiente digital.