O Supremo Tribunal Federal (STF) definirá nos próximos dias quando será retomado o julgamento que discute a responsabilidade civil de plataformas digitais por conteúdos publicados por terceiros em suas redes. Dois recursos questionam o artigo 19 do Marco Civil da Internet, que estabelece a necessidade de decisão judicial para que as empresas sejam obrigadas a remover conteúdos ofensivos ou ilícitos.
Após o longo voto do ministro André Mendonça, que se estendeu por duas sessões, o julgamento foi suspenso.
Divergência entre ministros marca início do julgamento
Até o momento, quatro ministros já apresentaram seus votos, revelando posições distintas sobre a questão. Os relatores dos recursos, ministros Dias Toffoli e Luiz Fux, declararam o artigo 19 inconstitucional, defendendo maior responsabilização das plataformas. Por outro lado, o presidente do STF, Luís Roberto Barroso, votou pela constitucionalidade parcial da norma. Todos são contrários à exigência atual de notificação judicial para retirada de conteúdo ofensivo
Já André Mendonça adotou posição intermediária, propondo interpretação ao artigo 19 conforme a Constituição, além de alguns parâmetros.
o ministro Luís Roberto Barroso afirmou que o artigo 19 apesar de ser “insuficiente, não deve ser eliminado”.
Barroso considera que, se a plataforma for notificada de que algo representa crime, como a criação de perfil falso, não é necessária ordem judicial de retirada. Porém afirmou ser “legítimo que, em muitas situações, a remoção de conteúdo somente deva se dar após ordem judicial”.
Mendonça propõe distinção entre tipos de plataformas digitais
Em seu voto, o ministro André Mendonça destacou a necessidade de diferenciar os diversos tipos de serviços digitais. Segundo sua avaliação, o Marco Civil da Internet estabeleceu distinção apenas entre provedores de conexão e de aplicação, criando lacuna normativa que precisa ser preenchida.
O magistrado defendeu a exclusão dos aplicativos de mensagens privadas da discussão sobre responsabilidade, argumentando eles têm natureza distinta das redes sociais. Para Mendonça, é fundamental identificar as peculiaridades dos aplicativos de busca, comércio eletrônico, marketplaces e redes sociais.
Na visão do ministro, também deve ser considerada a natureza da comunicação, seu impacto no público geral e o papel específico de cada plataforma. Ele propôs análise que abranja desde o tipo de serviço prestado até a dimensão e alcance das plataformas, incluindo se a mensagem envolve personalidade pública ou privada e se o conteúdo tem teor científico ou jornalístico.
Defesa da análise humana na moderação de conteúdo
André Mendonça expressou preocupação com a transferência excessiva do poder de decisão sobre moderação para as plataformas e seus algoritmos. O ministro alertou que essa mudança pode esvaziar a relevância do Judiciário e levar à remoção indevida de conteúdos.
“Não vislumbro como transferir às plataformas e, por consequência, ao algoritmo, o dever de ponderar de modo automático e artificial os valores em disputa, especialmente quando um desses valores é a liberdade de expressão”, afirmou o magistrado durante seu voto.
O ministro defendeu que a liberdade de expressão é direito fundamental e condição de possibilidade do regime democrático, não podendo ser submetida apenas a decisões automatizadas. Para ele, o modelo atual de prestação jurisdicional, apesar das limitações, oferece a melhor solução para garantir decisões motivadas e imparciais.
Suspensão de perfis sem lei é “censura prévia”
O ministro considerou inconstitucional a possibilidade de suspensão definitiva ou temporária de contas sem previsão em norma editada pelo Poder Legislativo.
Ele enfatizou que “a supressão de perfis caracteriza censura prévia” e defendeu que as regras válidas no mundo offline devem ser aplicadas no ambiente online. Segundo sua interpretação, deve-se coibir o ato ilícito através de responsabilização posterior, mas sempre assegurando o devido processo legal.
“O combate ao abuso do direito de se expressar, o combate à desinformação, ao discurso de ódio, não ensejam a exclusão do indivíduo do tecido social”, ressaltou Mendonça. Para ele, a suspensão autônoma só deve ocorrer em casos específicos: perfis comprovadamente falsos, robôs ou contas criadas exclusivamente para práticas criminosas.
Tese proposta estabelece diretrizes
1- Serviços de mensageria privada não podem ser equiparados a mídia social. Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação;
2 – É inconstitucional a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos, seja porque relacionados à pessoas que efetivamente existem, mas que ao saber da falsidade denuncia com a devida comprovação que não utiliza ou não criou aquele perfil; também falsos porque relacionados à pessoa que sequer existe fora do universo digital, os chamados perfis robôs e a remoção de perfis quando o próprio perfil é objeto direto da prática de atividade em si criminosa;
3- As plataformas em geral, tais como mecanismos de busca ou marketplaces, têm o dever de promover a identificação do usuário violador do direito de terceiro. Observado o cumprimento da referida devida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial promovida.
4 – Nos casos em que a demitida a remoção de conteúdo, sem ordem judicial, seja por expressa determinação legal ou conforme previsto nos termos de usos das plataformas, é preciso assegurar a observância de protocolos que assegurem o procedimento devido capaz de garantir a possibilidade do usuário ter acesso as motivações da decisão que ensejou a remoção do conteúdo; que essa exclusão seja feita preferencialmente por ser humano, admitindo-se o uso excepcional de robôs de inteligência artificial no comando da exclusão; que se possa recorrer da decisão de moderação e que se obtenha resposta da plataforma;
Liberdade de expressão como direito preferencial
Durante seu voto, Mendonça reafirmou a importância fundamental da liberdade de expressão para a democracia. O ministro destacou que este direito deve ter “posição preferencial” entre os direitos dos cidadãos, sendo indispensável para a defesa das demais liberdades.
“Apenas numa sociedade na qual o cidadão seja livre para expressar a sua vontade, sem receio de reprimenda estatal, se pode falar em soberania popular”, afirmou o magistrado. Ele defendeu que, em caso de dúvida, deve prevalecer a posição preferencial deste direito fundamental.
O ministro reconheceu como legítimo o direito dos cidadãos de questionar e duvidar das instituições, incluindo a Justiça Eleitoral. Segundo Mendonça, “no Brasil, é lícito duvidar da existência de Deus, de que o homem foi à Lua e também das instituições”, reforçando a amplitude da proteção constitucional à livre manifestação do pensamento.
Competência do Congresso Nacional para regular a matéria
André Mendonça também questionou a competência do STF para julgar o tema, sugerindo que a regulamentação deveria ser feita pelo Congresso Nacional. O ministro argumentou que o agravamento da crise institucional e democrática pelo fenômeno das fake news torna necessária maior participação do Poder Legislativo.
“Penso que ao assumir maior protagonismo em questão que deveria ser objeto de deliberação do Congresso Nacional, o Poder Judiciário acaba contribuindo, ainda que não intencionalmente, para o sentimento de desconfiança verificada em parcela significativa da sociedade”, observou o magistrado.
Para Mendonça, é preciso “quebrar esse ciclo vicioso” de desconfiança institucional, sugerindo maior deferência ao papel constitucional do Legislativo na criação de normas que regulamentem a responsabilidade das plataformas digitais no combate à desinformação e proteção de direitos fundamentais.
Discussão envolve dois recursos
O primeiro, RE 1037396 (Tema 987), tem como relator o ministro Dias Toffoli e foi interposto pelo Facebook Serviços Online do Brasil Ltda. A empresa questiona a constitucionalidade do artigo 19 do Marco Civil da Internet, que exige ordem judicial prévia para responsabilizar civilmente provedores, websites e gestores de aplicativos por danos causados por atos ilícitos de terceiros.
O segundo processo, RE 1057258 (Tema 533), relatado pelo ministro Luiz Fux, foi apresentado pela Google Brasil Internet Ltda. O recurso aborda especificamente se as empresas de tecnologia têm o dever legal de fiscalizar e moderar as publicações de seus usuários, bem como se é obrigatória a existência de ordem judicial para a remoção de conteúdo considerado ofensivo.