O Supremo Tribunal Federal (STF) voltou a julgar, nesta quinta-feira (5), a validade das regras que tratam da responsabilidade das plataformas digitais diante de conteúdos publicados por usuários. A quarta sessão sobre o tema deverá ter a conclusão do voto do ministro Dias Toffoli.
Relator de um dos casos, Toffoli já apontou que a norma atual — que exige ordem judicial para remoção de conteúdos de usuários — é inconstitucional.
Na sessão desta quarta (4), o magistrado apontou a necessidade de aplicar à questão outra regra, que também está no Marco Civil da Internet: a de que provedores de internet são considerados responsáveis pelas postagens quando não tomam providências para retirar o conteúdo após serem notificados de forma extrajudicial (pela própria vítima ou seu advogado).
Este trecho da lei é, atualmente, aplicado em casos de divulgação de vídeos íntimos, com cenas de nudez.
📲Toffoli entende que essa norma da notificação extrajudicial deve valer para casos em que está em jogo a proteção de todos os direitos fundamentais.
Sessão de julgamentos
A sessão desta quarta-feira — a terceira sobre o caso — foi dedicada à apresentação do voto do relator, com 160 páginas.
O ministro iniciou sua exposição apontando a necessidade de se responsabilizar as plataformas digitais pelos conteúdos postados.
“É hora de superar a ideia equivocada de que a internet é uma terra sem lei. Todas as relações do mundo virtual e real devem sofrer as consequências da lei. Não há diferença entre real e virtual”, afirmou.
Toffoli pontuou como funciona o modelo de negócios das redes.
“De fato, é devido a algoritmos – cuidadosamente planejados para orientar a forma como os conteúdos são organizados e apresentados na interface do provedor de serviços digitais – e do uso de ferramentas de inteligência artificial – para mineração de dados, análises estatísticas complexas e, por fim, para a recomendação, o impulsionamento e a moderação de conteúdos – que os destinatários dos serviços digitais vivenciam um mundo ‘projetado sob medida’, para atender a seus próprios anseios, preferências e expectativas”, ponderou.
Também citou a violência nos ambientes digitais. Neste ponto, o ministro Alexandre de Moraes pediu a palavra. Citou a atualidade da discussão e voltou a argumentar que o modelo em que as redes estabelecem suas próprias regras de remoção faliu.
“Repito que, infelizmente, a autorregulação faliu, então é necessário que se preserve a dignidade da pessoa humana, se preserve a honra das pessoas e se preserve também o Estado de Direito, no caso de atentados contra a democracia”, declarou.
O ministro Flávio Dino também citou o caso de violência em uma escola de Blumenau (SC), em abril de 2023.
Toffoli detalhou as regulações das redes realizadas em diferentes partes do mundo. “As transformações tecnológicas e sociais das últimas décadas demandam uma leitura da liberdade de expressão compatível com os desafios do tempo presente”, salientou.
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
🛜Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá elaborar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.