O Supremo Tribunal Federal (STF) deu prosseguimento na quinta-feira (5) ao julgamento de ação que discute a responsabilização civil das plataformas e provedores virtuais por conteúdos publicados por usuários. O ministro relator, Dias Toffoli, que foi o único a votar até o momento, defendeu a diminuição da imunidade das empresas e considerou inconstitucional um artigo do Marco Civil da Internet, vigente desde 2014.
A discussão no STF se dá em torno da constitucionalidade do artigo 19 do Marco Civil. O trecho prevê que as plataformas só podem ser responsabilizadas pelos conteúdos publicados por terceiros quando eles deixarem de cumprir uma ordem judicial específica de remoção.
Na leitura do voto, que durou três sessões da Corte e foi encerrada nesta quinta, Toffoli considerou o artigo inconstitucional e defendeu que a responsabilização das empresas deve ser ampliada. O magistrado também entendeu que as plataformas deverão analisar as notificações apresentadas por usuários sobre irregularidades nos conteúdos. Dessa forma, as plataformas vão poder ser punidas mesmo sem receber uma ordem judicial ou uma notificação extrajudicial.
O presidente da Corte, Luís Roberto Barroso, manifestou o desejo de encerrar o julgamento antes do recesso do Judiciário, que começará no próximo dia 20 e se estenderá até o início de fevereiro. Apesar disso, é possível que a análise prossiga em 2025. Além desse julgamento, o STF ainda vai analisar uma ação, relatada pelo ministro Luiz Fux, que trata sobre uma indenização de R$ 21 mil pleiteada por uma professora contra a big tech Google.
Inconstitucionalidade de artigo presente no Marco Civil da Internet
O artigo 19 do Marco Civil da Internet, sancionado pela ex-presidente Dilma Rousseff (PT), proíbe a responsabilização das plataformas por conteúdos publicados por usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.
A lei determina que as plataformas são obrigadas a agir na remoção de conteúdos em apenas duas ocasiões: em casos de violação de direitos autorais e divulgação de fotos íntimas sem consentimento.
Durante o voto, Toffoli avaliou que o artigo é inconstitucional por criar uma “imunidade” para as empresas de tecnologia. Segundo o ministro, a situação atual acaba por deixar os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.
“O sistema de Justiça não pode mais esperar, não pode mais se calar. É preciso encontrar mecanismos de proteção à integridade física. É preciso zelar por nossos jovens, por nossas crianças”, disse o ministro nesta quinta.
Punição de plataformas a partir de notificações feitas por usuários
No voto, Toffoli determinou que qualquer usuário poderá solicitar a remoção de um conteúdo nas redes sociais, mesmo sem haver um ofício judicial ou uma notificação extrajudicial. Assim, qualquer internauta poderá ser indenizado em casos de descumprimento das regras que podem ser determinadas em breve pelo STF.
Com a mudança, a responsabilidade judicial das redes sociais por publicações irregulares vai começar a partir do momento em que elas forem notificadas pelos usuários. Durante o voto, o relator chamou o modelo proposto por ele de “sistema de notificação e análise”.
A partir das notificações feitas pelos usuários, caberá às plataformas analisar as publicações questionadas e verificar se devem ser removidas. Elas poderão ser punidas se mantiverem no ar postagens criminosas, mas também podem ser responsabilizadas se removerem indevidamente conteúdos regulares.
Quais tipos de conteúdos podem provocar a responsabilização das plataformas?
Toffoli listou 12 tipos de conteúdos que devem ser removidos pelas plataformas mesmo sem a necessidade de notificação extrajudicial. Durante o julgamento, o ministro classificou as situações como “práticas especialmente graves”. São elas:
– Crimes contra o Estado Democrático de Direito;
– Atos de terrorismo ou preparatórios de terrorismo;
– Induzimento, instigação e auxílio ao suicídio ou à automutilação;
Racismo;
– Violência contra a criança, o adolescente e as pessoas vulneráveis;
– Violação contra a mulher;
– Infração sanitária em situação de emergência de saúde pública nacional;
– Tráfico de pessoas;
– Incitação ou ameaça da prática de atos de violência física ou sexual;
– Divulgação de fatos “notoriamente inverídicos ou gravemente descontextualizados” que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis;
– Divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral;
– Perfis falsos.
Punições a plataformas em casos de anúncios irregulares
Além da remoção de conteúdos “graves”, Toffoli também votou pela regulamentação do anúncio de produtos feitos pelas plataformas. O magistrado defendeu que as plataformas de comércio eletrônico também devem ser punidas em caso de propagandas irregulares.
Segundo Toffoli, as plataformas não poderão permitir o anúncio de produtos de venda proibida ou sem certificação e homologação por órgãos competentes, como as TV Box (espécie de decodificador de televisão), que são proibidas pela Agência Nacional de Telecomunicações (Anatel).
Contagem regressiva para atuação do Congresso Nacional
O relator também estipulou um prazo de 18 meses para que o Congresso Nacional aprove uma lei que busca enfrentar a violência digital e a desinformação.
Durante a abertura da sessão do último dia 27 de novembro, que também foi destinado para a leitura do voto de Toffoli, o presidente da Corte, ministro Luís Roberto Barroso, afirmou que o Judiciário “aguardou por período bastante razoável” para que o Congresso legislasse sobre o tema e que, como isso não ocorreu, era o momento do Supremo decidir sobre o tema.
Na Câmara dos Deputados, o Projeto de Lei 2630/2020, também conhecido como o “Projeto de Lei das Fake News”, que pretende criar normas a serem seguidas pelas plataformas, está engavetado desde abril do ano passado