A audiência pública promovida pelo Supremo Tribunal Federal sobre as regras do Marco Civil da Internet teve início nesta terça-feira, 28, com o que os advogados do Google e do Facebook chamaram de 'alerta' sobre a possibilidade de responsabilização das plataformas sobre conteúdos nocivos a partir de notificação extrajudicial. Para os representantes das empresas, equiparar a responsabilidade das plataformas à dos autores das postagens pode levar a um aumento da remoção de conteúdos 'subjetivos' ao incentivar a 'presunção de ilegalidade de todo conteúdo controverso'.
Os advogados do Facebook e do Google foram os primeiros a ser manifestar na parte inicial da audiência pública nesta terça-feira, 28, por figurarem como partes em processos que tramitam no Supremo e motivaram a reunião. As plataformas recorreram de decisões em que foram condenadas a arcar com indenizações por conteúdos 'nocivos' divulgados por perfis nelas hospedados.
Entre esta terça e quarta-feira, 29, diversos expositores discutem a responsabilidade das plataformas pelo conteúdo gerado pelos usuários e a possibilidade de remoção de posts que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas, antes de decisão judicial.
Participam da audiência ministros do Supremo Tribunal Federal que já defenderam a responsabilização das plataformas pelos discursos propagados em seus canais, como Alexandre de Moraes e Gilmar Mendes. O primeiro chegou a ressaltar nesta terça-feira, 28, que o atual modelo de regulação é 'absolutamente ineficiente', indicando, por exemplo, que as redes sociais foram 'instrumentalizadas' para os atos em que golpistas invadiram e depredaram as sedes dos Três Poderes no dia 8 de janeiro.
No centro do debate que tem início nesta terça-feira, 28, está um artigo do Marco Civil da Internet que estabelece que a plataforma só poderá ser responsabilizada civilmente 'por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente'.
O dispositivo é questionado por implicar em suposto incentivo à 'inércia' das plataformas ante a retirada de posts nocivos identificados nas plataformas. De outro lado, os representantes das empresas rechaçam alegações de omissão no combate a conteúdos nocivos, defendem o dispositivo do Marco Civil da Internet e argumentam que o modelo de negócios das plataformas 'não prospera em ambiente tóxico'.
Primeiro expositor da sessão inaugural no STF, o advogado Rodrigo Ruf Martins, do Facebook, defendeu que, em meio ao 'trabalho proativo' das plataformas sobre o conteúdo de postagens, a intervenção do Judiciário só deve se dar em 'casos difíceis e ambíguos, com grande subjetividade e razoável dúvida'.
Segundo ele, o dispositivo do Marco Civil da Internet que estabelece a responsabilização civil das plataformas após ordem judicial - questionado no STF - é uma 'solução equilibrada, porque possibilita a autorregularão das plataformas, indica caminho para cenários ambíguos, sem impedir reparações sobre eventuais danos'.
"O Marco Civil contém mecanismos que preveem a identificação do causador do dano e a respectiva responsabilização que o torna compatível com a garantia de proteção ao consumidor", assinalou Martins. O advogado defende uma regulação complementar ao Marco Civil.
Martins argumentou que uma eventual derrubada, pelo Supremo, do citado dispositivo do Marco Civil da Internet, 'levaria a um aumento considerável da remoção de conteúdos subjetivos'. "Conteúdos críticos que são importantes para debate público acabariam removidos mesmo sem violar a lei ou políticas (internas), mas como forma de mitigação de riscos jurídicos pelas plataformas", disse.
Na mesma linha, o advogado Guilherme Cardoso, da Google, sustentou que a maior parte das remoções de conteúdo ilegal que é feita pela plataforma não decorre de ordem judicial, argumentando assim que aumentar a responsabilidade civil das plataformas 'não é a chave' para uma internet mais segura.
"Responsabilizar as plataformas como se elas fossem as autoras do conteúdo levaria a um dever genérico de monitoramento de todo conteúdo, desnaturando o ambiente da internet", sustentou. Para o advogado, 'abolir ou enfraquecer' as regras que separam a responsabilidade das plataformas e pessoas sobre o que é postado nas redes sociais 'não vai acabar com os conteúdos controversos'.
O advogado citou como exemplo a Alemanha, que, segundo ele, ataca a questão das remoções de publicações sem adentrar a responsabilização civil. De acordo com Cardoso, aquele país criou um sistema de notificações para retirada de conteúdos restritos a uma lista fechada de tipos penais, desenvolveu regras para que as notificações sejam processadas em tempo 'razoável' e estabeleceu que a responsabilização da plataforma só aconteça em caso de 'falha sistemática do cumprimento da lei'.
O argumento do advogado da Google é o de que, na maior parte dos pedidos de remoção de conteúdo que chegam os tribunais, não existe 'elemento de objetividade'. "Dúvidas e variações de entendimento são comuns no exame de pedidos de remoção de conteúdo que chegam ao Judiciário. Em média, 50% das ações judiciais para remoção de conteúdo do Google são julgadas total ou parcialmente improcedentes. 30% das sentenças que acabam determinando a remoção acabam sendo revertidas em grau de apelação", afirmou.
Cardoso destacou que trocar a 'segurança' do Marco Civil da Internet 'por um regime de responsabilização baseado em critérios abertos ou pouco precisos vai levar a um cenário problemático': "Vai incentivar plataformas a presumir ilegalidade de todo conteúdo controverso, porque é a forma mais racional de evitar risco; vai desistimular comportamento responsável das pessoas na medida em que a conta da sua irresponsabilidade é transferida para as empresas; vai estimular uma enxurrada de ações judiciais contra as plataformas, muitas vezes motivadas pela possibilidade de litigar sem custo."
O advogado considera que propostas de aperfeiçoamento para combater conteúdos nocivos e ilegais na internet devem ser debatidas no Congresso Nacional 'sem abandonar o princípio básico de que não é possível responsabilizar diretamente as plataformas pelo conteúdo criado pelas pessoas'. "Dentro dessa premissa, caso se entenda pela ampliação das hipóteses para remoção extrajudicial de conteúdo é necessário ter garantias procedimentais e critérios que possam evitar banalização, insegurança jurídica e incentivo econômico à censura" assinalou.
Os comentários são exclusivos para assinantes do Estadão.