STF amplia responsabilização de big techs em votação importante

STF amplia responsabilização de big techs em votação importante

A responsabilidade das redes sociais em foco


BRASÍLIA, DF (FOLHAPRESS) - O Supremo Tribunal Federal (STF) formou uma maioria significativa para que as big techs possam ser responsabilizadas caso não removam publicações criminosas feitas por usuários, mesmo na ausência de uma decisão judicial prévia.


No plenário, que teve lugar na quarta-feira (11), os ministros Flávio Dino, Cristiano Zanin e Gilmar Mendes votaram a favor da ampliação da responsabilidade das redes sociais. Essa votação aborda a constitucionalidade de trechos do Marco Civil da Internet, que está em vigor desde 2014.


Os ministros Dias Toffoli, Luiz Fux e Luís Roberto Barroso já haviam expressado um entendimento semelhante, totalizando assim 6 votos favoráveis de um total de 11 no STF. No entanto, a avaliação sobre a amplitude da responsabilidade varia entre os magistrados, e ainda será necessária a modulação da tese ao final do julgamento.


Até o momento, André Mendonça foi o único a opinar pela manutenção da responsabilização das plataformas apenas após decisão judicial. A votação ainda conta com a expectativa de Kassio Nunes Marques, Edson Fachin, Alexandre de Moraes e Cármen Lúcia.


Debate sobre o Marco Civil da Internet


A corte está examinando o artigo 19 do Marco Civil da Internet, que estabelece que as empresas só devem indenizar usuários ofendidos por postagens de terceiros se desrespeitarem uma ordem judicial para remoção do conteúdo. Com os votos expressos até agora, a discussão se volta para a abrangência das obrigações que as redes sociais terão ao serem notificadas por usuários ofendidos. O retorno do julgamento está previsto para quinta-feira (12).


A expectativa é que, com as novas diretrizes, o Supremo aborde questões já debatidas em um projeto de lei que trata das Fake News, que tem enfrentado resistência devido a lobbies das próprias big techs.


Ao votar, Dino enfatizou a necessidade de "avançar na direção da liberdade com responsabilidade e da liberdade regulada, que é a única e verdadeira liberdade". Ele traçou uma analogia com outros setores para justificar a regulação, afirmando que "nunca vi alguém pretender abrir uma companhia aérea sem regulação em nome do direito de ir e vir". Afirmou que "a responsabilidade evita a barbárie, evita tiranias".


Cristiano Zanin complementou que a norma atual é insuficiente para proteger direitos fundamentais, especialmente no contexto democrático atual. Ele manifestou preocupação sobre a limitação da liberdade de expressão em casos de crimes contra a honra, aceitando que, em situações de dúvida legítima, as plataformas poderiam solicitar ou aguardar uma decisão judicial.


Novo paradigma de responsabilidade


O decano Gilmar Mendes destacou que o Marco Civil da Internet foi concebido sob a premissa da neutralidade da rede, ou seja, as empresas eram vistas como meras intermediárias de conteúdos. Entretanto, ele observou que "o paradigma de neutralidade foi completamente superado nas últimas décadas". As empresas têm se tornado protagonistas na circulação de conteúdos, utilizando filtros, bloqueios e algoritmos, que controlam a forma de disseminação de conteúdos de maneira pouco transparente.


Gilmar sugeriu a manutenção do texto do artigo 19 para crimes que envolvem honra e conteúdos jornalísticos, mas estabeleceu um regime geral de responsabilização após notificação. Ele também mencionou que, caso uma plataforma exclua um conteúdo, deve notificar o usuário e permitir a revisão da decisão.


O Judiciário também está debatendo a questão da falha sistêmica nas plataformas, para determinar em que condições deve ser reconhecido que as big techs não tomaram as medidas necessárias para sua autorregulação.


Os magistrados ressaltaram a necessidade de um mecanismo que impeça a publicação de conteúdos que já tenham sido reconhecidos como criminosos por decisão judicial.


Dino propôs que a responsabilização deva ocorrer em casos de postagens que incitem crimes contra crianças e adolescentes, suicídio, terrorismo e apologia a crimes contra a democracia.


Além disso, o ministro defende a criação de regras de autorregulação para que as plataformas implementem um sistema de notificações, análise de conteúdos denunciados e contabilização anual de transparência em relação às notificações extrajudiciais.


O futuro das plataformas digitais


Os relatores do caso são Toffoli e Fux. Para eles, as plataformas devem agir ao serem notificados por usuários ou até mesmo antes em algumas situações. Barroso, presidente da corte, apresentou a proposta de que a regra fosse considerada apenas parcialmente inconstitucional.


Um dos pontos mais controversos é a possível criação de um órgão executivo para monitorar o cumprimento das normas pelas plataformas digitais. Gilmar sugere a criação de um órgão semelhante à Autoridade Nacional de Proteção de Dados, que seria responsável por aplicar sanções a empresas que desrespeitassem a LGPD (Lei Geral de Proteção de Dados).


Por outro lado, Barroso alerta que uma autoridade governamental poderia ser vista como uma violação à liberdade de expressão, recomendando que o órgão fosse colegiado e incluísse ampla representação da sociedade civil.


O presidente de Assuntos Globais do Google, Kent Walker, surgiu em Brasília para uma série de encontros com ministros do STF, embora sua agenda permaneça em segredo. Walker comentou que a proposta em discussão no STF prevê uma ideia de responsabilização ampla para as plataformas sobre conteúdos produzidos por terceiros.


Segundo ele, "o que está sendo sugerido é uma noção ampla de responsabilidade e do dever de cuidado, que não está muito bem definida. Com a forma como nossas ferramentas operam, precisaríamos remover uma quantidade significativa de conteúdo, inclusive aquele considerado politicamente relevante, para mitigar o risco de responsabilização". Ele concluiu dizendo que "o diabo está nos detalhes".


O executivo acredita que o Google apoia a moderação de conteúdo em categorias específicas, como ameaças à democracia e conteúdo prejudicial para crianças, mas se opõe à responsabilização direta das plataformas pelo conteúdo de terceiros.