STF retoma esta semana julgamento sobre responsabilidade das redes sociais
O Supremo Tribunal Federal marcou para o dia 4 de junho a retomada do julgamento sobre a responsabilização das redes sociais pelos conteúdos ilegais postados pelos usuários. O julgamento foi interrompido em dezembro do ano passado por um pedido de vista do ministro André Mendonça, que devolveu o processo para julgamento nesta semana. A decisão pode alterar fundamentalmente como funcionam as plataformas digitais no Brasil.
A Corte analisa a constitucionalidade do Artigo 19 do Marco Civil da Internet, norma que estabelece os direitos e deveres para o uso da internet no Brasil. Atualmente, as plataformas só podem ser responsabilizadas pelas postagens de seus usuários se, após ordem judicial, não tomarem providências para retirar o conteúdo.
O próximo voto será do ministro André Mendonça, que pediu vista em dezembro do ano passado. As ações discutem se as plataformas devem responder por danos causados pelas postagens mesmo sem decisão judicial prévia.
Votos já proferidos
O presidente do STF, Luís Roberto Barroso, votou pela responsabilização parcial das plataformas. Para o ministro, as redes devem retirar postagens com conteúdo envolvendo pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia.
Pela proposta, a medida deve ser tomada após as empresas serem notificadas pelos envolvidos. Contudo, no entendimento de Barroso, a remoção de postagens com ofensas e crimes contra a honra dos cidadãos só pode ocorrer após decisão judicial.
Os ministros Dias Toffoli e Luiz Fux também votaram a favor da responsabilização das plataformas. De acordo com os ministros, as plataformas devem retirar, após notificação extrajudicial, conteúdos considerados ilegais, como mensagens com ataques à democracia, incitação à violência e racismo.
Processos em análise
O plenário do STF julga dois processos que discutem a constitucionalidade do Artigo 19 do Marco Civil da Internet. Na ação relatada pelo ministro Dias Toffoli, o tribunal julga a validade da regra que exige ordem judicial prévia para responsabilização dos provedores.
O caso trata de um recurso do Facebook para derrubar decisão judicial que condenou a plataforma por danos morais pela criação de perfil falso de um usuário. No processo relatado pelo ministro Luiz Fux, o STF discute se uma empresa que hospeda um site deve fiscalizar conteúdos ofensivos.
Pressão do governo federal
Na última segunda-feira (26), a Advocacia-Geral da União (AGU) pediu ao Supremo uma medida cautelar para reconhecer a necessidade de “imediata responsabilização dos provedores de aplicação de internet”. Para embasar o pedido, a União apresentou estudo que identificou 1.170 anúncios fraudulentos com uso de inteligência artificial.
Em reação à petição da AGU, a Meta disse ao Supremo que a concessão de uma medida cautelar “esvaziaria o debate colegiado”. A empresa também afirmou que o quadro descrito pela União “não corresponde à realidade dos fatos”.
Posição das big techs
Representantes das redes sociais defendem a manutenção da responsabilidade somente após o descumprimento de decisão judicial, como ocorre atualmente. As empresas sustentam que já realizam a retirada de conteúdos ilegais de forma extrajudicial e que o eventual monitoramento prévio configuraria censura.
Facebook e Google apresentaram argumentos alegando que as empresas já dispõem de mecanismos de moderação e remoção de conteúdos. As big techs concordam que o Marco Civil deve ser aprimorado, desde que se estabeleçam garantias procedimentais que evitem insegurança jurídica.
Resumo para redes sociais (280 caracteres): STF retoma em 4 de junho julgamento sobre responsabilidade das redes sociais por conteúdos ilegais. Decisão pode alterar moderação de conteúdo e funcionamento das plataformas digitais no Brasil.
Frase-chave de foco: STF julgamento responsabilidade redes sociais Marco Civil Internet
Meta-descrição (160 caracteres): STF retoma julgamento sobre responsabilidade das redes sociais. Decisão pode alterar moderação de conteúdo das plataformas digitais.