O ministro Luís Roberto Barroso, presidente do Supremo Tribunal Federal (STF), abriu divergência nesta quarta-feira, 18, no julgamento sobre a responsabilização das plataformas e provedores de internet por publicações de usuários. Após o voto de Barroso, o ministro André Mendonça pediu vista (mais tempo para análise) e suspendeu a votação.
Não há data para a retomada do julgamento. O regimento interno do STF prevê que o processo é liberado para ser incluído novamente na pauta se não for devolvido em até 90 dias pelo ministro que pediu vista. Os prazos ficam suspensos no período do recesso do Judiciário, que começa na próxima semana.
Antes da suspensão, o presidente do STF afirmou que concorda com as premissas dos votos dos ministros Dias Toffoli e Luiz Fux, que já haviam votado, mas chegou a conclusões diferentes. Barroso propõe que as plataformas sejam punidas apenas se ficar provado que houve “falhas sistêmicas” na moderação de conteúdo.
Enquanto Toffoli e Fux defendem punições para as empresas de tecnologia que não removerem publicações criminosas imediatamente após a notificação dos usuários, Barroso sugere como alternativa o chamado “dever de cuidado”. Segundo a proposta, as big techs devem criar mecanismos para melhorar a qualidade da informação, mas só podem ser punidas por falhas amplas, isto é, pela omissão na gestão global dos conteúdos ilícitos e não por casos individuais.
“O que se tem que aferir é se o esforço de impedir está sendo feito de maneira eficiente”, defendeu Barroso. “Do dever de cuidado decorre o dever de uma moderação eficaz e suficiente, que não será 100%, mas tem que ser satisfatória.”
Outro ponto de divergência gira em torno da necessidade de decisão judicial para a remoção de publicações. Ao contrário de Dias Toffoli e Luiz Fux, que defendem a punição ampla das plataformas, mesmo se não houver ordem judicial para apagar as postagens, o ministro Luís Roberto Barroso propõe exceções. Ele defende, por exemplo, que, nos casos de publicações contra a honra, como injúria, calúnia ou difamação, os conteúdos sejam apagados mediante ordem judicial.
“Se alguém disser que o governador é burro, ele pode pedir por notificação privada a remoção do conteúdo”, exemplificou Barroso ao alertar para os riscos à liberdade de expressão. “A supervisão judicial é necessária para evitar a censura e tentativas de silenciar pessoas ou ocultar fatos criminosos ainda pendentes de apuração.”
Veja os principais pontos do voto do ministro Luís Roberto Barroso
- Notificação privada (extrajudicial) e retirada de conteúdos como regra geral para publicações criminosas;
- Necessidade de decisão judicial para remoção de publicações que configurem crimes contra a honra (injúria, calúnia e difamação);
- Responsabilidade das plataformas, independente de notificação, por publicações ilícitas que forem impulsionadas ou veiculadas em anúncios pagos;
- Dever de cuidado: plataformas têm a obrigação de mitigar riscos criados ou potencializados pelas suas atividades, sobretudo quando impactarem “direitos individuais e coletivos e a estabilidade democrática”, e só podem ser responsabilizadas se houver uma “falha sistêmica” nesse trabalho;
- As plataformas têm que agir proativamente, ou seja, de ofício, para remover publicações sobre pornografia infantil, incentivo ao suicídio, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado;
- O Congresso deve definir as sanções possíveis para as plataformas e criar um órgão regulador independente e autônomo para a análise de conformidade, monitoramento e eventual aplicação das punições;
- As plataformas devem criar sistemas para a recepção de notificações dos usuários, com interface acessível e amigável, e publicar relatórios anuais, “claros e facilmente compreensíveis” sobre a atividade de moderação de conteúdo.
Leia também
‘Omissão do Congresso’
As empresas de tecnologia vinham acompanhando o debate no Congresso Nacional e consideram arriscado transferir o debate para o Judiciário, que pode criar, pela via jurisdicional, um sistema mais restritivo do que o modelo previsto na lei.
Durante a leitura do voto, Barroso defendeu que o STF só está julgando o tema porque ainda não houve regulamentação no Congresso.
“Nós respeitamos o Congresso Nacional, e das dificuldades de consenso nessa matéria, mas nós só estamos atuando porque ainda não há lei e, portanto, nós precisamos criar um regime jurídico para esse tema”, afirmou.
O presidente do Supremo também defende que o Poder Legislativo crie um órgão para monitorar as plataformas e empresas de tecnologia, nos moldes do Comitê Gestor da Internet, com representantes do governo, das empresas, da sociedade civil e do Congresso, com competência para fiscalizar, fazer recomendações e eventualmente aplicar sanções às big techs.
“Faço apelo ao legislador para disciplinar a matéria. Na minha visão, não deveria ser um órgão estatal. Eu pessoalmente tenho muita reserva de órgão estatal interferindo com liberdade de expressão. Preferiria um órgão independente”, defendeu Barroso.
O ministro Dias Toffoli sugeriu que o Conselho Nacional de Justiça (CNJ), órgão que administra o Poder Judiciário, assuma a função de monitoramento das big techs, para dar cumprimento ao que for decidido pelo STF. Barroso defende que a atribuição recaia sobre um órgão novo, fora da estrutura do Estado.
Marco Civil da Internet
O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.
O ministro Dias Toffoli foi o primeiro a votar. Para o ministro, a restrição imposta pelo Marco Civil da Internet é inconstitucional porque cria uma “imunidade” para as empresas de tecnologia e, ao mesmo tempo, deixa os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.
Toffoli propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.
O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial. Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.
O ministro Luiz Fux deu o segundo voto para ampliar a responsabilidade das plataformas e provedores por conteúdos publicados pelos usuários. Ele defendeu a inversão do modelo em vigor. A proposta é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.
Assim como Toffoli, o ministro Luiz Fux propõe que as plataformas sejam obrigadas a monitorar e a remover espontaneamente publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia a golpe de Estado.
Os comentários são exclusivos para assinantes do Estadão.