WASHINGTON – Redes sociais gigantes como Facebook, Twitter e Instagram operam há anos sob dois princípios cruciais.
O primeiro é que as plataformas têm o poder de decidir quais conteúdos conservar online e quais remover, sem fiscalização governamental. O segundo é que os sites não podem ser legalmente responsabilizados pela maior parte do que seus usuários postam online. Isso protege as empresas contra ações judiciais por discurso difamatório, conteúdos extremistas e danos no mundo real ligados às suas plataformas.
A Suprema Corte dos EUA está prestes a rever essas normas, potencialmente levando à reformulação mais importante das doutrinas que regem o discurso online desde que autoridades e tribunais dos Estados Unidos decidiram submeter a web a alguns regulamentos, nos anos 1990.
Na sexta-feira, 20, a Suprema Corte iria discutir se deve ouvir duas ações que questionam leis do Texas e da Flórida que proíbem plataformas online de remover certos conteúdos políticos, mas a decisão foi adiada. Em fevereiro a Corte vai ouvir uma ação que questiona a Seção 230, um estatuto de 1996 que protege as plataformas de responsabilidade pelos conteúdos postados por seus usuários.
Existe uma possibilidade de os processos modificarem a postura legal de isenção adotada majoritariamente pelos EUA em relação ao discurso online, potencialmente subvertendo os negócios do TikTok, Twitter, Snap e Meta, proprietária do Facebook e do Instagram.
“É um momento em que tudo pode mudar”, disse Daphne Kelly, advogada que já trabalhou para o Google e hoje dirige um programa no Centro de Política Cibernética da Universidade Stanford.
Os processos fazem parte de uma disputa legal crescente em torno de como lidar com discursos online nocivos. Nos últimos anos, à medida que o Facebook e outros sites foram atraindo bilhões de usuários e convertendo-se em canais influentes de comunicação, o poder que exercem passou a ser alvo de atenção crescente. Começou a ser questionada a possível influência indevida das redes sociais sobre eleições, genocídios, guerras e debates políticos.
Mais sobre redes sociais
O processo na Suprema Corte que questiona a Seção 230 da Lei de Decência nas Comunicações provavelmente terá muitos efeitos em cascata. Enquanto jornais e revistas podem ser processados em função dos conteúdos que publicam, a Seção 230 protege as plataformas online contra ações judiciais envolvendo a maioria do conteúdo postado por seus usuários. Ela também protege as plataformas contra ações quando elas removem conteúdos.
Durante anos juízes citaram essa lei quando rejeitaram queixas contra Facebook, Twitter e YouTube, garantindo desse modo que as empresas não fossem legalmente responsabilizadas com cada atualização de status, postagem e vídeo que viralizava. Críticos disseram que a lei equivalia a um cartão de “saia da prisão sem pagar” entregue às grandes plataformas.
“Se elas não forem responsabilizadas minimamente por quaisquer dos danos que são facilitados, as plataformas basicamente estarão autorizadas a ser tão imprudentes quanto possível”, disse Mary Anne Franks, professora de direito na Universidade de Miami.
A Suprema Corte havia previamente se negado a ouvir várias outras ações judiciais que contestaram o estatuto. Em 2020 ela rejeitou uma ação judicial movida pelas famílias de pessoas mortas em ataques terroristas. As famílias acusaram o Facebook de ser responsável pela promoção de conteúdo extremista. Em 2019 a Suprema Corte se negou a ouvir o caso de um homem dizendo que seu ex-namorado usara o aplicativo de relacionamentos Grindr para enviar pessoas para assediá-lo. O homem processou o aplicativo, dizendo que era um produto defeituoso.
Mas no próximo 21 de fevereiro a Suprema Corte pretende ouvir a ação de Gonzalez v. Google, movida pela família de um americano morto em Paris num ataque de seguidores do Estado Islâmico. Na ação, a família disse que a Seção 230 não deve proteger o YouTube da acusação de que o site de vídeos apoiou o terrorismo quando seus algoritmos recomendaram vídeos do Estado Islâmico a seus usuários. A ação argumenta que recomendações podem ser vistas como uma forma própria de conteúdo produzido pela plataforma, o que os removeria da proteção proporcionada pela Seção 230.
No dia seguinte a Corte pretende considerar uma segunda ação, Twitter v. Taamneh. Ela trata de uma questão relacionada envolvendo quando as plataformas são legalmente responsáveis por dar apoio ao terrorismo, conforme as leis federais.
Eric Schnapper, professor de direito da Universidade de Washington que é um dos advogados que representam os querelantes nas duas ações, disse em entrevista que os argumentos apresentados são pontuais demais para resultar em alterações para grandes partes da internet. “O sistema todo não vai desabar”, ele disse.
Mas a advogada chefe do Google, Halimah DeLaine Prado, disse em entrevista que “qualquer decisão negativa da Corte nessa ação, quer tenha âmbito reduzido ou não, vai alterar fundamentalmente o modo de funcionamento da internet”, já que pode resultar na remoção de algoritmos de recomendação que são “fundamentais” para a web. O Twitter não respondeu a um pedido de comentário.
Empresas de tecnologia também estão acompanhando de perto os processos movidos no Texas e na Flórida. Depois de o Twitter e o Facebook terem barrado o então presidente Donald Trump, após a insurreição de 6 de janeiro de 2021 no Capitólio, os dois estados sancionaram leis proibindo as redes sociais de remover certos conteúdos. A lei do Texas autoriza os usuários a processar uma grande plataforma online se ela remove sua postagem em função do “ponto de vista” que ele expressa. A lei da Flórida prevê multas para plataformas que barram permanentemente as contas de um candidato a um cargo público no estado.
A NetChoice e a CCIA, grupos fundados pelo Facebook, Google, Twitter e outras empresas de tecnologia, foram à justiça em 2021 para bloquear as leis. Os grupos argumentaram que as empresas têm o direito constitucional de decidir quais conteúdos abrigar em suas plataformas.
“Trata-se de uma maneira indireta de punir empresas por exercer seus direitos previstos pela Primeira Emenda constitucional com os quais outros discordam”, disse Chris Marchese, advogado da NetChoice.
Um juiz federal na Flórida concordou com os grupos das empresas, determinando que a lei infringe os direitos desfrutados pelas plataformas pelos termos da Primeira Emenda, e o 11º Tribunal de Apelações confirmou a maior parte da decisão. Mas o 5º Tribunal de Apelações confirmou a lei do Texas, rejeitando “a ideia de que as corporações tenham um direito amplo previsto na Primeira Emenda de censurar o que as pessoas dizem”.
Com isso, a Suprema Corte se vê pressionada a intervir. Quando diferentes tribunais federais dão respostas distintas à mesma pergunta, a Suprema Corte frequentemente opta por dar a palavra final na disputa, disse Jeff Kosseff, professor de direito de segurança cibernética na Academia Naval dos Estados Unidos.