O ministro Dias Toffoli, do Supremo Tribunal Federal (STF), concluiu nesta quinta-feira, 4, após três sessões, a leitura do seu voto no julgamento sobre a responsabilização civil das plataformas e provedores por conteúdos publicados pelos usuários. Ele propõe novas exigências para a moderação de conteúdo e, ao mesmo tempo, defende ampliar a responsabilidade dessas empresas pelas publicações que circulam na internet. Segundo o ministro, as plataformas precisam “assumir os riscos e os ônus de sua atuação ou omissão deliberada”.
O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.
Para Toffoli, a restrição é inconstitucional porque cria uma “imunidade” para as empresas de tecnologia e, ao mesmo tempo, deixa os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.
“O sistema de Justiça não pode mais esperar, não pode mais se calar. É preciso encontrar mecanismos de proteção à integridade física. É preciso zelar por nossos jovens, por nossas crianças”, defendeu. “O virtual hoje é real.”
O ministro propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começará a partir do momento em que forem notificadas pelos próprios usuários.
Toffoli chamou o modelo proposto de “sistema de notificação e análise”. Se as mudanças forem aprovadas pelo plenário do STF, caberá às plataformas analisar as publicações questionadas e verificar se devem ser removidas. Elas poderão ser punidas se mantiverem no ar postagens criminosas, mas também se removerem indevidamente conteúdos regulares.
“Do lucro, nasce o encargo”, afirmou Toffoli. “As atividades de recomendação, impulsionamento e moderação de conteúdo são intrínsecas ao modelo de negócio adotados por muitos provedores e, sendo esse o caso, como os provedores lucram com isso, devem arcar com os riscos e prejuízos que deram causa.”
O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial. Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.
Veja a lista de conteúdos que podem gerar a responsabilização das plataformas mesmo sem notificação extrajudicial:
- Crimes contra o Estado Democrático de Direito;
- Atos de terrorismo ou preparatórios de terrorismo;
- Induzimento, instigação ou auxílio ao suicídio ou à automutilação;
- Racismo;
- Violência contra a criança, o adolescente e as pessoas vulneráveis;
- Violação contra a mulher;
- Infração sanitária em situação de emergência de saúde pública nacional;
- Tráfico de pessoas;
- Incitação ou ameaça da prática de atos de violência física ou sexual;
- Divulgação de fatos “notoriamente inverídicos ou gravemente descontextualizados” que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis;
- Divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral;
- Perfis falsos.
Leia também
Toffoli defende que, embora as publicações sejam criadas pelos usuários, muitas vezes são impulsionadas pelas plataformas, que lucram com o engajamento. Um argumento central do voto é o de que as plataformas, provedores e redes sociais não são neutros e influenciam o fluxo de informação nos seus ecossistemas.
“Os conteúdos continuam sendo de terceiros, porque na origem foram confeccionados e/ou publicados por esses, mas ao recomendá-los ou impulsioná-los a um número indefinido de usuários o provedor acaba se tornando corresponsável pela sua difusão”, afirmou.
O ministro faz uma distinção entre as diferentes plataformas, segundo as atividades exercidas. Estão isentos, por exemplo, provedores de e-mail, plataformas de reuniões fechadas por videoconferência e plataformas e blogs jornalísticos. Já os aplicativos de mensagem não respondem por conversas privadas, mas podem ser responsabilizados por conteúdos publicados em grupos públicos e canais abertos.
As plataformas de comércio eletrônico, chamadas de marketplace, também serão afetadas pelo novo sistema, caso ele seja aprovado pela maioria do STF. Elas podem ser punidas se permitirem o anúncio de produtos de venda proibida ou sem certificação e homologação por órgãos competentes, como as TV Box, proibidas pela Agência Nacional de Telecomunicações (Anatel).
As propostas contrariam as big techs. Advogados do Facebook e do Google apresentaram seus argumentos a favor das regras como estão. As empresas consideram uma “armadilha” receber a responsabilidade pelo que publicam os usuários. Essas plataformas projetam que a mudança criará incentivos à remoção automática de publicações controversas e, em última instância, à censura prévia nas redes sociais. Uma das preocupações é diferenciar, na prática, o que é reprovável do que é criminoso, o que vai além dos termos de uso contratuais.
A tendência é que o STF faça mudanças nas regras atuais do Marco Civil da Internet, ampliando as obrigações das big techs. O julgamento será retomado na próxima semana.