STF forma maioria para responsabilizar redes sociais por conteúdo ilegal

STF

O Supremo Tribunal Federal (STF) formou maioria para permitir que redes sociais sejam responsabilizadas por conteúdos publicados por seus usuários, mesmo sem ordem judicial prévia para a retirada das postagens. A decisão marca um possível novo capítulo na relação entre plataformas digitais e a regulação do discurso online no Brasil.

O julgamento, que ainda não foi concluído, trata de dois recursos envolvendo a aplicação do Marco Civil da Internet, lei que desde 2014 rege os direitos e deveres de usuários e empresas na web. Atualmente, o artigo 19 da lei determina que plataformas só podem ser responsabilizadas se, após uma ordem judicial, não removerem o conteúdo ofensivo.

Os ministros Luiz Fux e Dias Toffoli, relatores do caso, propuseram uma solução intermediária: as redes sociais não precisariam de ordem judicial para agir, mas só poderiam ser responsabilizadas judicialmente se ficasse comprovado que o conteúdo era criminoso e a empresa se omitiu após ser notificada.

Outros ministros, como Flávio Dino e Cristiano Zanin, defenderam uma responsabilização mais direta das plataformas. Dino destacou postagens que incentivavam massacres em escolas brasileiras como exemplos da urgência de uma regulação mais ativa por parte das empresas. “A responsabilidade não impede a liberdade. Responsabilidade evita a barbárie”, afirmou.

Zanin também argumentou que não é razoável deixar para o cidadão comum a tarefa de acionar a Justiça para remover conteúdos que ameacem sua integridade. “Essa liberdade de expressão pode estar sendo mal utilizada para atacar o Estado de Direito, a incolumidade física das pessoas, inclusive crianças e adolescentes”, disse.

O voto decisivo para a formação da maioria veio do decano Gilmar Mendes, que fez duras críticas ao modelo atual. Para ele, o artigo 19 do Marco Civil representa um “véu da irresponsabilidade” das plataformas. Ele citou os ataques às instituições em 8 de janeiro de 2023 como exemplo da instrumentalização das redes para fins antidemocráticos. “Sem uma intervenção regulatória, iniciativas pontuais de moderação mostram-se insuficientes para reduzir danos às democracias”, afirmou.

Apenas o ministro André Mendonça divergiu da maioria até agora, defendendo que as plataformas só possam ser responsabilizadas após decisão judicial. Ele argumentou a favor da autorregulação, alegando que a legislação já oferece instrumentos para remoção de conteúdo.

O tema está em debate no Congresso há mais de dois anos, mas não avançou devido à resistência de grandes empresas do setor. Enquanto isso, o STF avança com uma tese que poderá orientar decisões em todo o Judiciário brasileiro.

Próximos passos

A decisão do STF ainda depende da definição de uma tese jurídica que unifique as posições divergentes dos ministros. Também será necessário modular os efeitos da decisão, ou seja, estabelecer em que situações, com quais critérios e a partir de quando as novas diretrizes passarão a valer.

As plataformas, por sua vez, defendem o modelo atual. Em nota, o Google afirmou que mudanças no Marco Civil precisam oferecer segurança jurídica. Já a Meta declarou que está comprometida com a segurança dos usuários e que continua aperfeiçoando suas políticas. TikTok e X (ex-Twitter) não se manifestaram.

O julgamento será retomado nesta quinta-feira (12), com os votos restantes e possível conclusão do tema. Até lá, os ministros do STF ainda podem alterar seus votos. Independentemente do desfecho, o julgamento já aponta para um cenário em que as big techs terão maior responsabilidade no combate à desinformação, ao discurso de ódio e aos abusos em suas plataformas.

Rolar para cima