WASHINGTON – Redes sociais gigantes como Facebook, Twitter e Instagram operam há anos sob dois princípios cruciais.
O primeiro é que as plataformas têm o poder de decidir quais conteúdos conservar online e quais remover, sem fiscalização governamental. O segundo é que os sites não podem ser legalmente responsabilizados pela maior parte do que seus usuários postam online. Isso protege as empresas contra ações judiciais por discurso difamatório, conteúdos extremistas e danos no mundo real ligados às suas plataformas.
A Suprema Corte dos EUA está prestes a rever essas normas, potencialmente levando à reformulação mais importante das doutrinas que regem o discurso online desde que autoridades e tribunais dos Estados Unidos decidiram submeter a web a alguns regulamentos, nos anos 1990.
Os dois casos que tramitam na Suprema Corte dos Estados Unidos nesta semana podem derrubar drasticamente as regras da internet, colocando um estatuto poderoso de décadas na mira. Ambos foram apresentados por familiares de vítimas de ataques terroristas, que dizem que as empresas de mídia social são responsáveis por alimentar a violência com seus algoritmos.
O primeiro caso, Gonzalez v Google, teve sua primeira audiência em 21 de fevereiro e pedirá ao mais alto tribunal dos EUA para determinar se o YouTube, o site de vídeos de propriedade do Google, deve ser responsabilizado por recomendar vídeos terroristas do Estado Islâmico. A segunda, que será ouvida ainda esta semana, tem como alvo o Twitter e o Facebook, além do Google, com alegações semelhantes.
Juntos, eles podem representar o desafio mais importante até agora para a seção 230 da Lei de Decência nas Comunicações, um estatuto que protege empresas de tecnologia como o YouTube de serem responsabilizadas pelo conteúdo compartilhado e recomendado por suas plataformas. Uma decisão a favor da responsabilização do YouTube poderia expor todas as plataformas, grandes e pequenas, a possíveis litígios sobre o conteúdo dos usuários.
Quais são os detalhes dos dois casos?
Gonzalez v Google é centrada em saber se o Google pode ser responsabilizado pelo conteúdo que seus algoritmos recomendam, ameaçando as proteções de longa data que as Big Techs desfrutam na seção 230.
Mais sobre redes sociais
A empresa controladora do YouTube, Google, está sendo processada pela família de Nohemi Gonzalez, uma cidadã americana de 23 anos que estudava em Paris em 2015 quando foi morta em ataques coordenados pelo Estado Islâmico na capital francesa e arredores. A família pretende apelar de uma decisão que sustentava que a seção 230 protege o YouTube de ser responsabilizado por recomendar conteúdo que incite ou convoque atos de violência. Nesse caso, o conteúdo em questão eram vídeos de recrutamento do Estado Islâmico.
“Os réus teriam recomendado que os usuários assistissem a vídeos inflamatórios criados pelo Estado Islâmico, vídeos que desempenharam um papel fundamental no recrutamento de combatentes para se juntar ao EI em sua subjugação de uma grande área do Oriente Médio e cometer atos terroristas em seus países de origem. “, dizem os autos na Suprema Corte.
No caso Twitter x Taameneh, familiares da vítima de um ataque terrorista em 2017 supostamente realizado pelo EI acusaram as empresas de mídia social de serem as culpadas pelo aumento do extremismo. O caso visa o Google, bem como o Twitter e o Facebook.
O que está em jogo?
“É um momento em que tudo pode mudar”, disse Daphne Kelly, advogada que já trabalhou para o Google e hoje dirige um programa no Centro de Política Cibernética da Universidade Stanford.
Os processos fazem parte de uma disputa legal crescente em torno de como lidar com discursos online nocivos. Nos últimos anos, à medida que o Facebook e outros sites foram atraindo bilhões de usuários e convertendo-se em canais influentes de comunicação, o poder que exercem passou a ser alvo de atenção crescente. Começou a ser questionada a possível influência indevida das redes sociais sobre eleições, genocídios, guerras e debates políticos.
O processo na Suprema Corte que questiona a Seção 230 da Lei de Decência nas Comunicações provavelmente terá muitos efeitos em cascata. Enquanto jornais e revistas podem ser processados em função dos conteúdos que publicam, a Seção 230 protege as plataformas online contra ações judiciais envolvendo a maioria do conteúdo postado por seus usuários. Ela também protege as plataformas contra ações quando elas removem conteúdos.
Durante anos juízes citaram essa lei quando rejeitaram queixas contra Facebook, Twitter e YouTube, garantindo desse modo que as empresas não fossem legalmente responsabilizadas com cada atualização de status, postagem e vídeo que viralizava. Críticos disseram que a lei equivalia a um cartão de “saia da prisão sem pagar” entregue às grandes plataformas.
“Se elas não forem responsabilizadas minimamente por quaisquer dos danos que são facilitados, as plataformas basicamente estarão autorizadas a ser tão imprudentes quanto possível”, disse Mary Anne Franks, professora de direito na Universidade de Miami.
A Suprema Corte havia previamente se negado a ouvir várias outras ações judiciais que contestaram o estatuto. Em 2020 ela rejeitou uma ação judicial movida pelas famílias de pessoas mortas em ataques terroristas. As famílias acusaram o Facebook de ser responsável pela promoção de conteúdo extremista. Em 2019 a Suprema Corte se negou a ouvir o caso de um homem dizendo que seu ex-namorado usara o aplicativo de relacionamentos Grindr para enviar pessoas para assediá-lo. O homem processou o aplicativo, dizendo que era um produto defeituoso.
O que diz a Seção 230?
Aprovada em 1996, a seção 230 protege empresas como YouTube, Twitter e Facebook de serem responsabilizadas legalmente pelo conteúdo postado pelos usuários. Grupos de liberdades civis apontam que o estatuto também oferece proteções valiosas para a liberdade de expressão, dando às plataformas de tecnologia o direito de hospedar uma série de informações sem censura indevida.
A Suprema Corte dos EUA está sendo instada neste caso a determinar se a imunidade concedida pela seção 230 também se estende à plataformas quando elas não estão apenas hospedando conteúdo, mas também fazendo “recomendações direcionadas de informações”. Os resultados do caso serão observados de perto, disse ao jornal britânico The Guardian Paul Barrett, vice-diretor do NYU Stern Center for Business and Human Rights.
“O que está em jogo aqui são as regras para a liberdade de expressão na internet”, disse ele. “Este caso pode ajudar a determinar se as principais plataformas de mídia social continuam a fornecer espaços para a liberdade de expressão de todos os tipos, desde debates políticos até pessoas postando sua arte e ativistas de direitos humanos contando ao mundo o que está acontecendo de errado em seus países.”
Uma repressão às recomendações algorítmicas afetaria quase todas as plataformas de mídia social. A maioria abandonou os feeds cronológicos simples depois que o Facebook lançou em 2006 seu Newsfeed, uma página inicial orientada por algoritmos que recomenda conteúdo aos usuários com base em suas atividades online. Controlar essa tecnologia é alterar a cara da própria internet, disse Barrett. “É isso que a mídia social faz – recomenda conteúdo.”
Como os juízes reagiram até agora?
Quando os argumentos no caso Gonzalez começaram na terça-feira, os juízes pareciam adotar um tom cauteloso sobre a seção 230, dizendo que as mudanças poderiam desencadear uma série de ações judiciais.
Elena Kagan, uma das juízas da corte, questionou se suas proteções eram muito abrangentes, mas indicou que o tribunal tinha mais a aprender antes de tomar uma decisão. “Sabe, estes juízes não são exatamente como os nove maiores especialistas da internet”, disse Kagan, referindo-se a si mesma e aos outros juízes.
Mesmo juízes que historicamente têm sido críticos duros de empresas de internet pareciam hesitantes em mudar a seção 230. O juiz Clarence Thomas disse que não estava claro como o algoritmo do YouTube era responsável por estimular o terrorismo. John Roberts comparou recomendações de vídeo a um livreiro sugerindo livros a um cliente.
Quem quer reformar reformar a Seção 230?
Responsabilizar as empresas de tecnologia por seu sistema de recomendação tornou-se um grito de guerra para os legisladores republicanos e democratas. Os republicanos afirmam que as plataformas suprimiram os pontos de vista conservadores, enquanto os democratas dizem que os algoritmos das plataformas estão amplificando o discurso de ódio e outros conteúdos nocivos.
O debate sobre a seção 230 criou um raro consenso em todo o espectro político de que mudanças devem ser feitas, com até mesmo Mark Zuckerberg, do Facebook, dizendo ao Congresso que “pode fazer sentido haver responsabilidade por parte do conteúdo”. Tanto Joe Biden quanto seu antecessor, Donald Trump, pediram mudanças na medida.
Eric Schnapper, professor de direito da Universidade de Washington que é um dos advogados que representam os querelantes nas duas ações, disse em entrevista que os argumentos apresentados são pontuais demais para resultar em alterações para grandes partes da internet. “O sistema todo não vai desabar”, ele disse.
Mas a advogada chefe do Google, Halimah DeLaine Prado, disse em entrevista que “qualquer decisão negativa da Corte nessa ação, quer tenha âmbito reduzido ou não, vai alterar fundamentalmente o modo de funcionamento da internet”, já que pode resultar na remoção de algoritmos de recomendação que são “fundamentais” para a web. O Twitter não respondeu a um pedido de comentário do jornal The New York Times.
Quais seriam os efeitos?
Apesar dos esforços dos legisladores, muitas empresas, acadêmicos e defensores dos direitos humanos defenderam a seção 230, dizendo que mudanças na medida podem sair pela culatra e alterar significativamente a internet como a conhecemos.
Empresas como Reddit, Twitter, Microsoft, bem como críticos de tecnologia como a Electronic Frontier Foundation, apresentaram cartas ao tribunal argumentando que tornar as plataformas responsáveis por recomendações algorítmicas teria graves efeitos na liberdade de expressão e no conteúdo da Internet.
Evan Greer, um ativista de liberdade de expressão e direitos digitais, diz que responsabilizar as empresas por seus sistemas de recomendação pode “levar à supressão generalizada de discursos políticos, religiosos e outros legítimos”.
“A Seção 230 é amplamente mal compreendida pelo público em geral”, disse Greer, que também é diretor do grupo de direitos digitais Fight for the Future. “A verdade é que a Seção 230 é uma lei fundamental para os direitos humanos e a liberdade de expressão globalmente, e mais ou menos a única razão pela qual você ainda pode encontrar informações cruciais online sobre tópicos controversos como aborto, saúde sexual, ações militares, assassinatos policiais, figuras acusadas de má conduta sexual e muito mais.” / AP, NYT, e AFP
Os comentários são exclusivos para assinantes do Estadão.