A imagem mostra o ministro Alexandre de Moraes do STF em julgamento no plenário. Ele é um homem branco e careca.

Para Moraes, big techs não podem ser “terra sem lei”; Com o placar de 7 a 1, julgamento será retomado na próxima semana

Há 4 meses
Atualizado sexta-feira, 15 de agosto de 2025

Por Carolina Villela

O Supremo Tribunal Federal (STF) já consolidou maioria de sete votos favoráveis à flexibilização das regras de remoção de conteúdo ofensivo nas redes sociais, em julgamento que promete revolucionar a moderação digital no Brasil. O julgamento, que discute a constitucionalidade do artigo 19 do Marco Civil da Internet, foi retomado nesta quinta-feira (12) com o voto do ministro Alexandre de Moraes, que também defendeu a responsabilização das redes socais. Devido ao horário, a análise foi suspensa e deve ser retomada na próxima quarta-feira (25). Ainda faltam os posicionamentos dos ministros Edson Fachin, Nunes Marques e da ministra Cármen Lúcia.

Big techs não podem ter imunidade absoluta

Alexandre de Moraes iniciou o seu voto dizendo que a discussão no STF deve ser pautada por algumas perguntas importantes e a decisão de necessidade de regulação deve vir por meio das respostas. Um dos questionamentos que devem ser esclarecidos, segundo Moraes, é se as redes sociais possuem “imunidade territorial absoluta” e cláusula geral e irrestrita de impunidade para prática de ilícitos ou induzimento à crimes. Moraes defendeu que as big techs não podem ser “terra sem lei”. 

O ministro ressaltou as Big Tech são as empresas que mais faturam com publicidade e mídia no mundo e que a atual conduta dessas empresas não está de acordo com o objetivo da República, que é promover o bem de todos, sem preconceito de origens, raça, sexo, cor ou qualquer outra forma de discriminação. 

Moraes exibiu no telão postagens com teor homofóbico, racista, nazista, facista e citou que as redes sociais, quando é feito o pedido de retirada do conteúdo, apenas agradecem a denúncia, “só faltou escrever o problema seu se você acha que isso é criminoso”, completou o ministro. 

Moraes continuou: “Somente uma mente doente e criminosa, posta isso. Somente outras mentes doentes e criminosas, dão like. E somente mentes omissas não lutam para retirar isso das redes sociais. Isso não é liberdade de expressão! Isso é crime! 

O ministro reforçou que o discurso de ódio leva ao aumento do crimes e que atrás dessas divulgações há sempre um covarde. Afirmou que as Big Tech exercem um “domínio maléfico” sobre a sociedade. 

Ele também mostrou vídeos dos ataques do dia 8 de janeiro de 2023 em que manifestantes postaram e chamavam mais gente para participar dos atos de destruição. 

“Essa é a tropa de choque, presidente, resistindo às velhinhas com bíblias na mão que estavam no dia 8 de janeiro”, ironizou Moraes. 

As pessoas vêm sendo bombardeadas e submetidas a uma verdadeira lavagem cerebral. O que é verdadeiro está sendo manipulado para ganhos e lucros. “Liberdade de expressão não é liberdade de agressão” e nenhum país do mundo aceita isso, reforçou Moraes. 

Para Moraes, se há direcionamento, impulsionamento, monetização, há direta participação das Big Techs. Por isso, deve haver maior transparência e responsabilidade. O ministro afirmou que, enquanto não tiver uma regulamentação pelo Congresso Nacional, é necessário interpretação constitucional que afaste o reiterado descumprimento de preceitos fundamentais. 

Na avaliação dele, os provedores de mensagens privadas também devem ser solidariamente responsabilizados por conteúdos impulsionados e direcionados por algoritmos e publicitários. Ele defendeu ainda que todas as plataformas devem ter sede em território nacional. 

Por fim, Moraes acompanhou os relatores dos dois recursos, os ministros Dias Toffoli e Luiz Fux.   

O que está em discussão

Os dois recursos discutem a responsabilidade civil das plataformas digitais por conteúdos de terceiros e se devem remover conteúdos ofensivos, a pedido de pessoa ofendida, mesmo sem autorização judicial prévia.

Atualmente, o artigo 19 do Marco Civil obriga essas empresas a aguardar ordem judicial antes de remover publicações denunciadas, mas a nova interpretação do STF permitirá remoções mais ágeis em diversos casos específicos.

A mudança representa um marco na relação entre big techs e justiça brasileira, alterando fundamentalmente como plataformas como Facebook, Instagram, X (antigo Twitter) e YouTube lidarão com denúncias de conteúdo inadequado. 

Revolução na moderação digital brasileira

O posicionamento majoritário dos ministros reflete o entendimento de que a legislação atual, criada há mais de uma década, tornou-se inadequada diante da evolução tecnológica. Segundo os magistrados, a revolução no modelo de utilização da internet, com o uso massivo de redes sociais e aplicativos de mensagens, demanda regras mais flexíveis para proteger adequadamente os usuários.

Para os relatores Dias Toffoli e Luiz Fux, a exigência absoluta de notificação judicial para retirada de conteúdo ofensivo é completamente inconstitucional. Já os ministros Luís Roberto Barroso, Flávio Dino, Cristiano Zanin e Gilmar Mendes consideram a norma apenas parcialmente inconstitucional, defendendo que a obrigação judicial deve ser mantida em situações específicas.

A principal preocupação dos ministros favoráveis à manutenção parcial das regras atuais concentra-se nos crimes contra a honra, onde entendem que a dispensa total da ordem judicial poderia comprometer excessivamente a proteção à liberdade de expressão.

Sistema inovador de quatro regimes

O ministro Gilmar Mendes apresentou a proposta mais inovadora do julgamento, criando um sistema complexo que divide a responsabilização das empresas em quatro modalidades distintas. Essa abordagem sofisticada busca equilibrar a proteção aos direitos fundamentais com a necessidade de agilidade na moderação digital.

O regime residual manteria as regras atuais apenas para crimes contra a honra e conteúdo jornalístico, preservando a exigência de ordem judicial nesses casos sensíveis. O regime geral seguiria o artigo 21 do Marco Civil, responsabilizando plataformas que permaneçam inertes após receber notificação sobre conteúdo reconhecidamente ilícito.

Para anúncios pagos e conteúdo impulsionado, Mendes propôs um regime de presunção que dispensaria notificação prévia, reconhecendo a natureza comercial desse tipo de publicação. O regime especial, mais rigoroso, aplicaria responsabilização solidária imediata para conteúdos considerados graves, incluindo discurso de ódio, ameaças contra autoridades, crimes envolvendo crianças e condutas antidemocráticas.

André Mendonça mantém posição isolada

Em posicionamento solitário até o momento, o ministro André Mendonça defendeu a manutenção integral do artigo 19, argumentando que a regra atual é plenamente constitucional. Para Mendonça, as plataformas digitais possuem legitimidade suficiente para defender tanto a liberdade de expressão quanto o direito de preservar suas próprias regras de moderação.

O ministro isolado entende que a atual obrigatoriedade de aguardar decisão judicial antes de remover conteúdo denunciado oferece proteção adequada aos direitos fundamentais. Sua posição contrasta com a maioria dos colegas, que consideram o sistema atual insuficiente para lidar com os desafios contemporâneos da moderação digital.

A divergência de Mendonça também se baseia na defesa da autonomia das empresas de tecnologia para estabelecer e manter suas políticas internas de moderação, sem interferência excessiva do Poder Judiciário.

Critérios diferenciados para aplicação

O ministro Cristiano Zanin estabeleceu critérios específicos para a aplicação das novas regras, criando distinções importantes entre diferentes tipos de conteúdo. Sua proposta prevê a dispensa de ordem judicial em casos envolvendo postagens inequívocas de crimes contra a honra, especialmente quando já existe condenação criminal por calúnia, injúria ou difamação.

Por outro lado, Zanin defende a manutenção da exigência judicial em situações que apresentem dúvida legítima ou que se enquadrem em uma “zona cinzenta”, onde a caracterização do ilícito não seja clara. Essa abordagem busca equilibrar agilidade na remoção de conteúdo claramente prejudicial com proteção contra censura excessiva.

A modulação de efeitos proposta por Zanin, com apoio da maioria dos ministros, estabelece que a nova interpretação só valerá após o julgamento final, protegendo empresas como Facebook e Google de condenações baseadas nas regras anteriores.

Autor

Leia mais

AGU e STJ renovam acordo que encerrou 3,8 milhões de processos em cinco anos

Há 13 horas

STF derruba critério de promoção de juízes baseado em índice de conciliação

Há 13 horas

Um documentário para tentar desvendar Martin Scorsese

Há 16 horas
USS Gerald Ford, que o governo dos EUA deslocou para águas do Caribe

Guerra à vista: EUA enviam porta-aviões ao Caribe e anunciam ofensiva contra cartéis na América Latina

Há 17 horas

Moraes autoriza Mauro Cid a participar de aniversário de avó e mantém medidas cautelares

Há 17 horas
Lei sancionada no DF que homenageia ‘vítimas do comunismo’ é objeto de polêmica

Lei sancionada no DF que homenageia ‘vítimas do comunismo’ é objeto de polêmica e repercute nacionalmente

Há 18 horas
Maximum file size: 500 MB