Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Justiça só deve intervir em conteúdos 'ambíguos' para evitar  remoção em série de posts, defendem plataformas


Em audiência pública promovida pelo Supremo Tribunal Federal nesta terça-feira, 28, advogados do Facebook e da Google 'alertam' sobre impacto de responsabilização das empresas por conteúdos 'nocivos'

Por Pepita Ortega
Audiência pública sobre o Marco Civil no STF. Foto: Reprodução

A audiência pública promovida pelo Supremo Tribunal Federal sobre as regras do Marco Civil da Internet teve início nesta terça-feira, 28, com o que os advogados do Google e do Facebook chamaram de 'alerta' sobre a possibilidade de responsabilização das plataformas sobre conteúdos nocivos a partir de notificação extrajudicial. Para os representantes das empresas, equiparar a responsabilidade das plataformas à dos autores das postagens pode levar a um aumento da remoção de conteúdos 'subjetivos' ao incentivar a 'presunção de ilegalidade de todo conteúdo controverso'.

Os advogados do Facebook e do Google foram os primeiros a ser manifestar na parte inicial da audiência pública nesta terça-feira, 28, por figurarem como partes em processos que tramitam no Supremo e motivaram a reunião. As plataformas recorreram de decisões em que foram condenadas a arcar com indenizações por conteúdos 'nocivos' divulgados por perfis nelas hospedados.

continua após a publicidade

Entre esta terça e quarta-feira, 29, diversos expositores discutem a responsabilidade das plataformas pelo conteúdo gerado pelos usuários e a possibilidade de remoção de posts que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas, antes de decisão judicial.

Participam da audiência ministros do Supremo Tribunal Federal que já defenderam a responsabilização das plataformas pelos discursos propagados em seus canais, como Alexandre de Moraes e Gilmar Mendes. O primeiro chegou a ressaltar nesta terça-feira, 28, que o atual modelo de regulação é 'absolutamente ineficiente', indicando, por exemplo, que as redes sociais foram 'instrumentalizadas' para os atos em que golpistas invadiram e depredaram as sedes dos Três Poderes no dia 8 de janeiro.

No centro do debate que tem início nesta terça-feira, 28, está um artigo do Marco Civil da Internet que estabelece que a plataforma só poderá ser responsabilizada civilmente 'por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente'.

continua após a publicidade

O dispositivo é questionado por implicar em suposto incentivo à 'inércia' das plataformas ante a retirada de posts nocivos identificados nas plataformas. De outro lado, os representantes das empresas rechaçam alegações de omissão no combate a conteúdos nocivos, defendem o dispositivo do Marco Civil da Internet e argumentam que o modelo de negócios das plataformas 'não prospera em ambiente tóxico'.

Primeiro expositor da sessão inaugural no STF, o advogado Rodrigo Ruf Martins, do Facebook, defendeu que, em meio ao 'trabalho proativo' das plataformas sobre o conteúdo de postagens, a intervenção do Judiciário só deve se dar em 'casos difíceis e ambíguos, com grande subjetividade e razoável dúvida'.

continua após a publicidade

Segundo ele, o dispositivo do Marco Civil da Internet que estabelece a responsabilização civil das plataformas após ordem judicial - questionado no STF - é uma 'solução equilibrada, porque possibilita a autorregularão das plataformas, indica caminho para cenários ambíguos, sem impedir reparações sobre eventuais danos'.

"O Marco Civil contém mecanismos que preveem a identificação do causador do dano e a respectiva responsabilização que o torna compatível com a garantia de proteção ao consumidor", assinalou Martins. O advogado defende uma regulação complementar ao Marco Civil.

Martins argumentou que uma eventual derrubada, pelo Supremo, do citado dispositivo do Marco Civil da Internet, 'levaria a um aumento considerável da remoção de conteúdos subjetivos'. "Conteúdos críticos que são importantes para debate público acabariam removidos mesmo sem violar a lei ou políticas (internas), mas como forma de mitigação de riscos jurídicos pelas plataformas", disse.

continua após a publicidade

Na mesma linha, o advogado Guilherme Cardoso, da Google, sustentou que a maior parte das remoções de conteúdo ilegal que é feita pela plataforma não decorre de ordem judicial, argumentando assim que aumentar a responsabilidade civil das plataformas 'não é a chave' para uma internet mais segura.

"Responsabilizar as plataformas como se elas fossem as autoras do conteúdo levaria a um dever genérico de monitoramento de todo conteúdo, desnaturando o ambiente da internet", sustentou. Para o advogado, 'abolir ou enfraquecer' as regras que separam a responsabilidade das plataformas e pessoas sobre o que é postado nas redes sociais 'não vai acabar com os conteúdos controversos'.

O advogado citou como exemplo a Alemanha, que, segundo ele, ataca a questão das remoções de publicações sem adentrar a responsabilização civil. De acordo com Cardoso, aquele país criou um sistema de notificações para retirada de conteúdos restritos a uma lista fechada de tipos penais, desenvolveu regras para que as notificações sejam processadas em tempo 'razoável' e estabeleceu que a responsabilização da plataforma só aconteça em caso de 'falha sistemática do cumprimento da lei'.

continua após a publicidade

O argumento do advogado da Google é o de que, na maior parte dos pedidos de remoção de conteúdo que chegam os tribunais, não existe 'elemento de objetividade'. "Dúvidas e variações de entendimento são comuns no exame de pedidos de remoção de conteúdo que chegam ao Judiciário. Em média, 50% das ações judiciais para remoção de conteúdo do Google são julgadas total ou parcialmente improcedentes. 30% das sentenças que acabam determinando a remoção acabam sendo revertidas em grau de apelação", afirmou.

Cardoso destacou que trocar a 'segurança' do Marco Civil da Internet 'por um regime de responsabilização baseado em critérios abertos ou pouco precisos vai levar a um cenário problemático': "Vai incentivar plataformas a presumir ilegalidade de todo conteúdo controverso, porque é a forma mais racional de evitar risco; vai desistimular comportamento responsável das pessoas na medida em que a conta da sua irresponsabilidade é transferida para as empresas; vai estimular uma enxurrada de ações judiciais contra as plataformas, muitas vezes motivadas pela possibilidade de litigar sem custo."

O advogado considera que propostas de aperfeiçoamento para combater conteúdos nocivos e ilegais na internet devem ser debatidas no Congresso Nacional 'sem abandonar o princípio básico de que não é possível responsabilizar diretamente as plataformas pelo conteúdo criado pelas pessoas'. "Dentro dessa premissa, caso se entenda pela ampliação das hipóteses para remoção extrajudicial de conteúdo é necessário ter garantias procedimentais e critérios que possam evitar banalização, insegurança jurídica e incentivo econômico à censura" assinalou.

Audiência pública sobre o Marco Civil no STF. Foto: Reprodução

A audiência pública promovida pelo Supremo Tribunal Federal sobre as regras do Marco Civil da Internet teve início nesta terça-feira, 28, com o que os advogados do Google e do Facebook chamaram de 'alerta' sobre a possibilidade de responsabilização das plataformas sobre conteúdos nocivos a partir de notificação extrajudicial. Para os representantes das empresas, equiparar a responsabilidade das plataformas à dos autores das postagens pode levar a um aumento da remoção de conteúdos 'subjetivos' ao incentivar a 'presunção de ilegalidade de todo conteúdo controverso'.

Os advogados do Facebook e do Google foram os primeiros a ser manifestar na parte inicial da audiência pública nesta terça-feira, 28, por figurarem como partes em processos que tramitam no Supremo e motivaram a reunião. As plataformas recorreram de decisões em que foram condenadas a arcar com indenizações por conteúdos 'nocivos' divulgados por perfis nelas hospedados.

Entre esta terça e quarta-feira, 29, diversos expositores discutem a responsabilidade das plataformas pelo conteúdo gerado pelos usuários e a possibilidade de remoção de posts que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas, antes de decisão judicial.

Participam da audiência ministros do Supremo Tribunal Federal que já defenderam a responsabilização das plataformas pelos discursos propagados em seus canais, como Alexandre de Moraes e Gilmar Mendes. O primeiro chegou a ressaltar nesta terça-feira, 28, que o atual modelo de regulação é 'absolutamente ineficiente', indicando, por exemplo, que as redes sociais foram 'instrumentalizadas' para os atos em que golpistas invadiram e depredaram as sedes dos Três Poderes no dia 8 de janeiro.

No centro do debate que tem início nesta terça-feira, 28, está um artigo do Marco Civil da Internet que estabelece que a plataforma só poderá ser responsabilizada civilmente 'por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente'.

O dispositivo é questionado por implicar em suposto incentivo à 'inércia' das plataformas ante a retirada de posts nocivos identificados nas plataformas. De outro lado, os representantes das empresas rechaçam alegações de omissão no combate a conteúdos nocivos, defendem o dispositivo do Marco Civil da Internet e argumentam que o modelo de negócios das plataformas 'não prospera em ambiente tóxico'.

Primeiro expositor da sessão inaugural no STF, o advogado Rodrigo Ruf Martins, do Facebook, defendeu que, em meio ao 'trabalho proativo' das plataformas sobre o conteúdo de postagens, a intervenção do Judiciário só deve se dar em 'casos difíceis e ambíguos, com grande subjetividade e razoável dúvida'.

Segundo ele, o dispositivo do Marco Civil da Internet que estabelece a responsabilização civil das plataformas após ordem judicial - questionado no STF - é uma 'solução equilibrada, porque possibilita a autorregularão das plataformas, indica caminho para cenários ambíguos, sem impedir reparações sobre eventuais danos'.

"O Marco Civil contém mecanismos que preveem a identificação do causador do dano e a respectiva responsabilização que o torna compatível com a garantia de proteção ao consumidor", assinalou Martins. O advogado defende uma regulação complementar ao Marco Civil.

Martins argumentou que uma eventual derrubada, pelo Supremo, do citado dispositivo do Marco Civil da Internet, 'levaria a um aumento considerável da remoção de conteúdos subjetivos'. "Conteúdos críticos que são importantes para debate público acabariam removidos mesmo sem violar a lei ou políticas (internas), mas como forma de mitigação de riscos jurídicos pelas plataformas", disse.

Na mesma linha, o advogado Guilherme Cardoso, da Google, sustentou que a maior parte das remoções de conteúdo ilegal que é feita pela plataforma não decorre de ordem judicial, argumentando assim que aumentar a responsabilidade civil das plataformas 'não é a chave' para uma internet mais segura.

"Responsabilizar as plataformas como se elas fossem as autoras do conteúdo levaria a um dever genérico de monitoramento de todo conteúdo, desnaturando o ambiente da internet", sustentou. Para o advogado, 'abolir ou enfraquecer' as regras que separam a responsabilidade das plataformas e pessoas sobre o que é postado nas redes sociais 'não vai acabar com os conteúdos controversos'.

O advogado citou como exemplo a Alemanha, que, segundo ele, ataca a questão das remoções de publicações sem adentrar a responsabilização civil. De acordo com Cardoso, aquele país criou um sistema de notificações para retirada de conteúdos restritos a uma lista fechada de tipos penais, desenvolveu regras para que as notificações sejam processadas em tempo 'razoável' e estabeleceu que a responsabilização da plataforma só aconteça em caso de 'falha sistemática do cumprimento da lei'.

O argumento do advogado da Google é o de que, na maior parte dos pedidos de remoção de conteúdo que chegam os tribunais, não existe 'elemento de objetividade'. "Dúvidas e variações de entendimento são comuns no exame de pedidos de remoção de conteúdo que chegam ao Judiciário. Em média, 50% das ações judiciais para remoção de conteúdo do Google são julgadas total ou parcialmente improcedentes. 30% das sentenças que acabam determinando a remoção acabam sendo revertidas em grau de apelação", afirmou.

Cardoso destacou que trocar a 'segurança' do Marco Civil da Internet 'por um regime de responsabilização baseado em critérios abertos ou pouco precisos vai levar a um cenário problemático': "Vai incentivar plataformas a presumir ilegalidade de todo conteúdo controverso, porque é a forma mais racional de evitar risco; vai desistimular comportamento responsável das pessoas na medida em que a conta da sua irresponsabilidade é transferida para as empresas; vai estimular uma enxurrada de ações judiciais contra as plataformas, muitas vezes motivadas pela possibilidade de litigar sem custo."

O advogado considera que propostas de aperfeiçoamento para combater conteúdos nocivos e ilegais na internet devem ser debatidas no Congresso Nacional 'sem abandonar o princípio básico de que não é possível responsabilizar diretamente as plataformas pelo conteúdo criado pelas pessoas'. "Dentro dessa premissa, caso se entenda pela ampliação das hipóteses para remoção extrajudicial de conteúdo é necessário ter garantias procedimentais e critérios que possam evitar banalização, insegurança jurídica e incentivo econômico à censura" assinalou.

Audiência pública sobre o Marco Civil no STF. Foto: Reprodução

A audiência pública promovida pelo Supremo Tribunal Federal sobre as regras do Marco Civil da Internet teve início nesta terça-feira, 28, com o que os advogados do Google e do Facebook chamaram de 'alerta' sobre a possibilidade de responsabilização das plataformas sobre conteúdos nocivos a partir de notificação extrajudicial. Para os representantes das empresas, equiparar a responsabilidade das plataformas à dos autores das postagens pode levar a um aumento da remoção de conteúdos 'subjetivos' ao incentivar a 'presunção de ilegalidade de todo conteúdo controverso'.

Os advogados do Facebook e do Google foram os primeiros a ser manifestar na parte inicial da audiência pública nesta terça-feira, 28, por figurarem como partes em processos que tramitam no Supremo e motivaram a reunião. As plataformas recorreram de decisões em que foram condenadas a arcar com indenizações por conteúdos 'nocivos' divulgados por perfis nelas hospedados.

Entre esta terça e quarta-feira, 29, diversos expositores discutem a responsabilidade das plataformas pelo conteúdo gerado pelos usuários e a possibilidade de remoção de posts que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas, antes de decisão judicial.

Participam da audiência ministros do Supremo Tribunal Federal que já defenderam a responsabilização das plataformas pelos discursos propagados em seus canais, como Alexandre de Moraes e Gilmar Mendes. O primeiro chegou a ressaltar nesta terça-feira, 28, que o atual modelo de regulação é 'absolutamente ineficiente', indicando, por exemplo, que as redes sociais foram 'instrumentalizadas' para os atos em que golpistas invadiram e depredaram as sedes dos Três Poderes no dia 8 de janeiro.

No centro do debate que tem início nesta terça-feira, 28, está um artigo do Marco Civil da Internet que estabelece que a plataforma só poderá ser responsabilizada civilmente 'por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente'.

O dispositivo é questionado por implicar em suposto incentivo à 'inércia' das plataformas ante a retirada de posts nocivos identificados nas plataformas. De outro lado, os representantes das empresas rechaçam alegações de omissão no combate a conteúdos nocivos, defendem o dispositivo do Marco Civil da Internet e argumentam que o modelo de negócios das plataformas 'não prospera em ambiente tóxico'.

Primeiro expositor da sessão inaugural no STF, o advogado Rodrigo Ruf Martins, do Facebook, defendeu que, em meio ao 'trabalho proativo' das plataformas sobre o conteúdo de postagens, a intervenção do Judiciário só deve se dar em 'casos difíceis e ambíguos, com grande subjetividade e razoável dúvida'.

Segundo ele, o dispositivo do Marco Civil da Internet que estabelece a responsabilização civil das plataformas após ordem judicial - questionado no STF - é uma 'solução equilibrada, porque possibilita a autorregularão das plataformas, indica caminho para cenários ambíguos, sem impedir reparações sobre eventuais danos'.

"O Marco Civil contém mecanismos que preveem a identificação do causador do dano e a respectiva responsabilização que o torna compatível com a garantia de proteção ao consumidor", assinalou Martins. O advogado defende uma regulação complementar ao Marco Civil.

Martins argumentou que uma eventual derrubada, pelo Supremo, do citado dispositivo do Marco Civil da Internet, 'levaria a um aumento considerável da remoção de conteúdos subjetivos'. "Conteúdos críticos que são importantes para debate público acabariam removidos mesmo sem violar a lei ou políticas (internas), mas como forma de mitigação de riscos jurídicos pelas plataformas", disse.

Na mesma linha, o advogado Guilherme Cardoso, da Google, sustentou que a maior parte das remoções de conteúdo ilegal que é feita pela plataforma não decorre de ordem judicial, argumentando assim que aumentar a responsabilidade civil das plataformas 'não é a chave' para uma internet mais segura.

"Responsabilizar as plataformas como se elas fossem as autoras do conteúdo levaria a um dever genérico de monitoramento de todo conteúdo, desnaturando o ambiente da internet", sustentou. Para o advogado, 'abolir ou enfraquecer' as regras que separam a responsabilidade das plataformas e pessoas sobre o que é postado nas redes sociais 'não vai acabar com os conteúdos controversos'.

O advogado citou como exemplo a Alemanha, que, segundo ele, ataca a questão das remoções de publicações sem adentrar a responsabilização civil. De acordo com Cardoso, aquele país criou um sistema de notificações para retirada de conteúdos restritos a uma lista fechada de tipos penais, desenvolveu regras para que as notificações sejam processadas em tempo 'razoável' e estabeleceu que a responsabilização da plataforma só aconteça em caso de 'falha sistemática do cumprimento da lei'.

O argumento do advogado da Google é o de que, na maior parte dos pedidos de remoção de conteúdo que chegam os tribunais, não existe 'elemento de objetividade'. "Dúvidas e variações de entendimento são comuns no exame de pedidos de remoção de conteúdo que chegam ao Judiciário. Em média, 50% das ações judiciais para remoção de conteúdo do Google são julgadas total ou parcialmente improcedentes. 30% das sentenças que acabam determinando a remoção acabam sendo revertidas em grau de apelação", afirmou.

Cardoso destacou que trocar a 'segurança' do Marco Civil da Internet 'por um regime de responsabilização baseado em critérios abertos ou pouco precisos vai levar a um cenário problemático': "Vai incentivar plataformas a presumir ilegalidade de todo conteúdo controverso, porque é a forma mais racional de evitar risco; vai desistimular comportamento responsável das pessoas na medida em que a conta da sua irresponsabilidade é transferida para as empresas; vai estimular uma enxurrada de ações judiciais contra as plataformas, muitas vezes motivadas pela possibilidade de litigar sem custo."

O advogado considera que propostas de aperfeiçoamento para combater conteúdos nocivos e ilegais na internet devem ser debatidas no Congresso Nacional 'sem abandonar o princípio básico de que não é possível responsabilizar diretamente as plataformas pelo conteúdo criado pelas pessoas'. "Dentro dessa premissa, caso se entenda pela ampliação das hipóteses para remoção extrajudicial de conteúdo é necessário ter garantias procedimentais e critérios que possam evitar banalização, insegurança jurídica e incentivo econômico à censura" assinalou.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.