Censura nas redes virou campo de batalha na guerra cultural americana


Empresas e governo americano não chegaram a acordo sobre o que realmente pode ser vetado

Por Will Oremus
Atualização:

THE WASHINGTON POST - No início do ano passado, em meio a críticas afirmando que as redes sociais estavam espalhando desinformação sobre a covid-19, o Facebook ampliou uma campanha para policiar informações falsas, banindo o que classificou como “alegações desmascaradas”. Entre elas, de que o coronavírus era “fabricado pelo homem” e tinha vazado de um laboratório da China.

Para o governo de Joe Biden e o establishment científico, os esforços do Facebook de impedir a disseminação de desinformação foram insuficientes, dada a maneira que sua rede havia ajudado notícias falsas viralizarem. Mas outros reclamaram que as manobras do Facebook esmagaram debates legítimos a respeito do frustrante desempenho das autoridades de saúde – uma visão que foi em parte justificada quando a falta de transparência da China fez com que cientistas declarassem “viável” a teoria de vazamento do laboratório e pedissem mais investigações.

continua após a publicidade

Em maio de 2021, pouco mais de três meses depois de impor o banimento, o Facebook recuou: “Sob a luz das investigações a respeito das origens da covid e de consultas com especialistas, não removeremos mais a afirmação de que a covid-19 é fabricada pelo homem de nossos aplicativos”.

Vigias do lado de fora do Instituto de Virologia de Wuhan durante visita deequipe da OMS, em fevereiro. Foto: Reuters/Thomas Peter

O que as pessoas podem ou não dizer online e o papel das grandes empresas de tecnologia nessas decisões ganharam o centro do debate na política americana. A esquerda defende moderação no conteúdo para conter desinformação, racismo e misoginia. A direita diz que isso é censura e exige livre expressão.

continua após a publicidade

Nos meses recentes, vários desdobramentos evidenciaram esta batalha. Na semana passada, a Suprema Corte aceitou a abertura de um processo que acusa o YouTube de incentivo ao terrorismo por recomendar conteúdo do Estado Islâmico. No mês passado, uma corte federal declarou constitucional uma lei que pretende evitar que plataformas de redes sociais removam ou limitem posts com base em posicionamentos políticos.

Enquanto isso, o homem mais rico do mundo, Elon Musk, está pressionando para fechar uma transação que lhe dará controle completo sobre o Twitter, cuja decisão de banir o ex-presidente Donald Trump depois do ataque contra o Capitólio, em 2021, reverberou talvez como o ato mais polêmico de moderação na história da internet. Musk afirmou que pretende restituir o perfil de Trump.

“Estamos nos aproximando de um momento crucial para a expressão online”, afirmou Daphne Keller, diretora do Programa sobre Regulação de Plataformas do Centro de Ciberpolíticas da Universidade Stanford. “As pressões políticas sobre moderação de conteúdo aumentaram tremendamente.”

continua após a publicidade

Regras

A maneira com que os fóruns online estabelecem e aplicam regras para os usuários nunca foi tão polêmica. Quando a internet nasceu para os consumidores, na década de 90, congressistas de ambos os partidos compartilharam de um desejo de ver as firmas de tecnologia prosperar. Esse consenso sobreviveu em embates preliminares a respeito de pornografia, infrações de direitos autorais, fotos de mulheres amamentando e propaganda terrorista.

Em 1995, o ex-congressista republicano Christopher Cox ajudou a elaborar a lei que pavimentou o caminho para as gigantes da internet moderarem a expressão online. Na época, as implicações políticas eram tão baixas que os meios de comunicação mal notaram.

continua após a publicidade

A internet dos consumidores começava a florescer, com milhões de americanos conectando-se a servidores como CompuServe, Prodigy e AOL. A maior preocupação da maioria dos congressistas era limitar pornografia para menores.

Cox e o então deputado democrata Ron Wyden tinham outra preocupação. Anteriormente, naquele ano, uma decisão em um caso de difamação contra a Prodigy sustentou que a tentativa da empresa de policiar seus fóruns online a tornava responsável pelo conteúdo gerado por seus usuários. Cox e Wyden se preocupavam com a possibilidade de o julgamento asfixiar a recém-nascida internet.

Liberdade

continua após a publicidade

Então, eles propuseram um estatuto que concedia aos provedores de serviços online espaço para abrigar, distribuir e moderar conteúdos postados sem ser considerados responsáveis quando algo ilegal era postado. Hoje, parte da chamada Lei de Decência nas Comunicações passou a ser conhecida por sua localização: a Seção 230.

As primeiras decisões judiciais interpretaram a Seção 230 mais amplamente do que Cox e Wyden haviam previsto, estabelecendo imunidade para conteúdos postados pelos usuários. Isso abriu caminho para sites como Yahoo, Google e MSN. Depois, vieram o YouTube, que pertence ao Google, e o Facebook.

As plataformas puderam abrigar, agregar e organizar vastas quantidades de conteúdo sem ter de se preocupar muito, do ponto de vista legal, com o que seria informação falsa, prejudicial ou perigosa.

continua após a publicidade

O resultado foi um modelo de negócios que, em comparação com os meios de comunicação tradicionais, dispensou criadores de conteúdo remunerados em favor de usuários comuns não remunerados e substituiu editores remunerados por algoritmos projetados para dar evidência a conteúdos mais relevantes, envolventes ou provocadores.

Uma placa com as principais organizações de notícias junto com as palavras "fake news" é exibida em comício de Donald Trump, em Michigan Foto: Joshua Roberts/Reuters - 28/04/2018

Ainda assim, a internet dos consumidores nunca foi uma zona irrestrita de livre expressão. As plataformas online mais bem-sucedidas logo descobriram que tinham de formular e fazer vigorar regras básicas ou seriam tomadas por pornografia, spam, golpes, assédios e discursos de ódio – e isso seria ruim para os negócios.

“Mesmo quando um fórum de internet começa com o objetivo de permitir liberdade de expressão, ele rapidamente esbarra no fato inevitável de que você tem de moderar se quiser ter um produto comercialmente viável”, disse Evelyn Douek, professora de direito de Stanford.

A necessidade de monitorar milhões de posts ao dia em sites fez ascender uma indústria de moderação de conteúdo comercial envolvendo grandes equipes que passam os dias tomando decisões rápidas a respeito de tirar do ar ou não posts que usuários marcam como ofensivos ou obscenos.

Para preservar a ilusão de uma “zona de livre expressão”, firmas de tecnologia tendem a se distanciar desse trabalho, terceirizando o serviço para empresas que pagam mal os funcionários em locais remotos, afirmou Sarah Roberts, autora de Behind the Screen: Content Moderation in the Shadows of Social Media.

Mesmo assim, algumas decisões se provaram espinhosas demais ou surtiram consequências que fizeram empresas de tecnologia varrer a sujeira para baixo do tapete.

Saddam

Em 2006, um vídeo chocante foi publicado no então novato YouTube: imagens granuladas e tremidas, captadas de maneira amadora, mostraram Saddam Hussein, o presidente deposto do Iraque, sendo enforcado por integrantes do novo governo iraquiano, alguns dos quais gritando insultos em seus momentos finais. As imagens não haviam sido fornecidas para os meios de comunicação e o vídeo expôs uma execução vingativa e indigna, contrariando os relatos oficiais.

A decisão de manter o vídeo no ar ou derrubá-lo caiu no colo da então vice-conselheira jurídica do Google, uma jovem advogada chamada Nicole Wong. “Decidimos que o vídeo da execução retratava um momento histórico e era importante que ele fosse compartilhado e assistido”, afirmou Wong, em uma conferência, em 2018.

Dois anos depois, um grupo de mães furiosas protestou diante dos escritórios em Palo Alto, do Facebook, então com 3 anos de idade, que vinha tirando do ar fotos de mães amamentando por considerar que as imagens violavam a política contra nudez no site.

O furor estimulou o Facebook a desenvolver sua primeira cartilha de regras para o que os usuários podiam ou não postar, delineando distinções detalhadas, talvez arbitrárias, para diferenciar imagens salubres de insalubres, entre outros aspectos.

Em 2020, a pandemia criou novos testes para as plataformas de redes sociais Foto: Dado Ruvic/Illustration/Reuters - 21/01/2021

Apesar dos incêndios ocasionais, as grandes plataformas cultivaram no exterior a imagem de guardiãs da livre expressão, ao mesmo tempo que mantinha uma estudada neutralidade política dentro dos EUA.

A ilusão da neutralidade das redes sociais em relação à política partidária começou a ruir em 2016, com efeitos que reverberam até hoje. Em maio daquele ano, o blog de tecnologia Gizmodo publicou uma reportagem relatando que funcionários progressistas do Facebook estavam suprimindo notícias de meios de imprensa de direita na influente página de Trending News.

O CEO do Facebook, Mark Zuckerberg, empreendeu um tour de pedidos de desculpas em altos escalões, ordenando treinamentos contra parcialidade para seus funcionários e demitindo os jornalistas encarregados da seção.

Enquanto o chefe da firma estava ocupado com o controle de danos, contudo, sua plataforma estava sendo explorada de novas maneiras durante os preparativos da campanha para a eleição presidencial de novembro de 2016 nos EUA.

Uma indústria artesanal de fake news estava prosperando no Facebook, à medida que seus textos falaciosos – que com frequência tinham inclinação pró-Trump –, por vezes, recebiam mais curtidas do que reportagens sobre acontecimentos reais.

77% dos usuários do Facebook já se depararam com uma notícia falsa na rede social Foto: Dado Ruvic/Reuters

Revelou-se depois da eleição de Trump que o lucro não era a única motivação da maré de conteúdo manipulador no Facebook. Operadores da Rússia também vinham usando contas falsas, grupos e páginas na rede social para disseminar conteúdo polarizador destinado a contrapor os americanos entre si.

Tentativas de funcionários do Facebook de abordar tanto o problema das fake news quanto das operações de informação russas foram minadas, noticiou o Washington Post, em razão do medo de seu líder de enfurecer ainda mais os conservadores.

Em 2017, muitos na esquerda passaram a culpar o Facebook e outras redes sociais de ter ajudado a eleger Trump, pressionando empresas de tecnologia a adotar posições mais firmes não apenas contra as fake news, mas também em relação às frequentes mentiras e provocações de cunho racial do então presidente.

Em resposta, as empresas de tecnologia desenvolveram softwares para ajudar a automatizar o processo de marcação de posts capazes de violar suas crescentemente complexas cartilhas de regras.

Ainda que seus esforços tenham removido posts inflamatórios dos apoiadores mais fervorosos de Trump, Facebook e Twitter relutaram em agir contra o presidente. As redes sociais também têm culpa na ascensão de um movimento supremacista branco mais vocal e visível, que usou os fóruns online para se radicalizar, recrutar membros e organizar eventos.

Para progressistas, isso reforçou a ligação entre o discurso online e a violência no mundo real, tornando a moderação de conteúdo literalmente questão de vida ou morte.

As plataformas ficaram gradualmente mais rígidas com Trump, à medida que ele começou a prever uma “eleição fraudada” e classificar o voto pelo correio como “fraudulento”, abrindo caminho para sua tentativa de contestar os resultados da seguinte eleição presidencial. A relutância das empresas de tecnologia em penalizar um presidente no exercício do cargo estava colidindo com as políticas contra desinformação. / TRADUÇÃO DE AUGUSTO CALIL

THE WASHINGTON POST - No início do ano passado, em meio a críticas afirmando que as redes sociais estavam espalhando desinformação sobre a covid-19, o Facebook ampliou uma campanha para policiar informações falsas, banindo o que classificou como “alegações desmascaradas”. Entre elas, de que o coronavírus era “fabricado pelo homem” e tinha vazado de um laboratório da China.

Para o governo de Joe Biden e o establishment científico, os esforços do Facebook de impedir a disseminação de desinformação foram insuficientes, dada a maneira que sua rede havia ajudado notícias falsas viralizarem. Mas outros reclamaram que as manobras do Facebook esmagaram debates legítimos a respeito do frustrante desempenho das autoridades de saúde – uma visão que foi em parte justificada quando a falta de transparência da China fez com que cientistas declarassem “viável” a teoria de vazamento do laboratório e pedissem mais investigações.

Em maio de 2021, pouco mais de três meses depois de impor o banimento, o Facebook recuou: “Sob a luz das investigações a respeito das origens da covid e de consultas com especialistas, não removeremos mais a afirmação de que a covid-19 é fabricada pelo homem de nossos aplicativos”.

Vigias do lado de fora do Instituto de Virologia de Wuhan durante visita deequipe da OMS, em fevereiro. Foto: Reuters/Thomas Peter

O que as pessoas podem ou não dizer online e o papel das grandes empresas de tecnologia nessas decisões ganharam o centro do debate na política americana. A esquerda defende moderação no conteúdo para conter desinformação, racismo e misoginia. A direita diz que isso é censura e exige livre expressão.

Nos meses recentes, vários desdobramentos evidenciaram esta batalha. Na semana passada, a Suprema Corte aceitou a abertura de um processo que acusa o YouTube de incentivo ao terrorismo por recomendar conteúdo do Estado Islâmico. No mês passado, uma corte federal declarou constitucional uma lei que pretende evitar que plataformas de redes sociais removam ou limitem posts com base em posicionamentos políticos.

Enquanto isso, o homem mais rico do mundo, Elon Musk, está pressionando para fechar uma transação que lhe dará controle completo sobre o Twitter, cuja decisão de banir o ex-presidente Donald Trump depois do ataque contra o Capitólio, em 2021, reverberou talvez como o ato mais polêmico de moderação na história da internet. Musk afirmou que pretende restituir o perfil de Trump.

“Estamos nos aproximando de um momento crucial para a expressão online”, afirmou Daphne Keller, diretora do Programa sobre Regulação de Plataformas do Centro de Ciberpolíticas da Universidade Stanford. “As pressões políticas sobre moderação de conteúdo aumentaram tremendamente.”

Regras

A maneira com que os fóruns online estabelecem e aplicam regras para os usuários nunca foi tão polêmica. Quando a internet nasceu para os consumidores, na década de 90, congressistas de ambos os partidos compartilharam de um desejo de ver as firmas de tecnologia prosperar. Esse consenso sobreviveu em embates preliminares a respeito de pornografia, infrações de direitos autorais, fotos de mulheres amamentando e propaganda terrorista.

Em 1995, o ex-congressista republicano Christopher Cox ajudou a elaborar a lei que pavimentou o caminho para as gigantes da internet moderarem a expressão online. Na época, as implicações políticas eram tão baixas que os meios de comunicação mal notaram.

A internet dos consumidores começava a florescer, com milhões de americanos conectando-se a servidores como CompuServe, Prodigy e AOL. A maior preocupação da maioria dos congressistas era limitar pornografia para menores.

Cox e o então deputado democrata Ron Wyden tinham outra preocupação. Anteriormente, naquele ano, uma decisão em um caso de difamação contra a Prodigy sustentou que a tentativa da empresa de policiar seus fóruns online a tornava responsável pelo conteúdo gerado por seus usuários. Cox e Wyden se preocupavam com a possibilidade de o julgamento asfixiar a recém-nascida internet.

Liberdade

Então, eles propuseram um estatuto que concedia aos provedores de serviços online espaço para abrigar, distribuir e moderar conteúdos postados sem ser considerados responsáveis quando algo ilegal era postado. Hoje, parte da chamada Lei de Decência nas Comunicações passou a ser conhecida por sua localização: a Seção 230.

As primeiras decisões judiciais interpretaram a Seção 230 mais amplamente do que Cox e Wyden haviam previsto, estabelecendo imunidade para conteúdos postados pelos usuários. Isso abriu caminho para sites como Yahoo, Google e MSN. Depois, vieram o YouTube, que pertence ao Google, e o Facebook.

As plataformas puderam abrigar, agregar e organizar vastas quantidades de conteúdo sem ter de se preocupar muito, do ponto de vista legal, com o que seria informação falsa, prejudicial ou perigosa.

O resultado foi um modelo de negócios que, em comparação com os meios de comunicação tradicionais, dispensou criadores de conteúdo remunerados em favor de usuários comuns não remunerados e substituiu editores remunerados por algoritmos projetados para dar evidência a conteúdos mais relevantes, envolventes ou provocadores.

Uma placa com as principais organizações de notícias junto com as palavras "fake news" é exibida em comício de Donald Trump, em Michigan Foto: Joshua Roberts/Reuters - 28/04/2018

Ainda assim, a internet dos consumidores nunca foi uma zona irrestrita de livre expressão. As plataformas online mais bem-sucedidas logo descobriram que tinham de formular e fazer vigorar regras básicas ou seriam tomadas por pornografia, spam, golpes, assédios e discursos de ódio – e isso seria ruim para os negócios.

“Mesmo quando um fórum de internet começa com o objetivo de permitir liberdade de expressão, ele rapidamente esbarra no fato inevitável de que você tem de moderar se quiser ter um produto comercialmente viável”, disse Evelyn Douek, professora de direito de Stanford.

A necessidade de monitorar milhões de posts ao dia em sites fez ascender uma indústria de moderação de conteúdo comercial envolvendo grandes equipes que passam os dias tomando decisões rápidas a respeito de tirar do ar ou não posts que usuários marcam como ofensivos ou obscenos.

Para preservar a ilusão de uma “zona de livre expressão”, firmas de tecnologia tendem a se distanciar desse trabalho, terceirizando o serviço para empresas que pagam mal os funcionários em locais remotos, afirmou Sarah Roberts, autora de Behind the Screen: Content Moderation in the Shadows of Social Media.

Mesmo assim, algumas decisões se provaram espinhosas demais ou surtiram consequências que fizeram empresas de tecnologia varrer a sujeira para baixo do tapete.

Saddam

Em 2006, um vídeo chocante foi publicado no então novato YouTube: imagens granuladas e tremidas, captadas de maneira amadora, mostraram Saddam Hussein, o presidente deposto do Iraque, sendo enforcado por integrantes do novo governo iraquiano, alguns dos quais gritando insultos em seus momentos finais. As imagens não haviam sido fornecidas para os meios de comunicação e o vídeo expôs uma execução vingativa e indigna, contrariando os relatos oficiais.

A decisão de manter o vídeo no ar ou derrubá-lo caiu no colo da então vice-conselheira jurídica do Google, uma jovem advogada chamada Nicole Wong. “Decidimos que o vídeo da execução retratava um momento histórico e era importante que ele fosse compartilhado e assistido”, afirmou Wong, em uma conferência, em 2018.

Dois anos depois, um grupo de mães furiosas protestou diante dos escritórios em Palo Alto, do Facebook, então com 3 anos de idade, que vinha tirando do ar fotos de mães amamentando por considerar que as imagens violavam a política contra nudez no site.

O furor estimulou o Facebook a desenvolver sua primeira cartilha de regras para o que os usuários podiam ou não postar, delineando distinções detalhadas, talvez arbitrárias, para diferenciar imagens salubres de insalubres, entre outros aspectos.

Em 2020, a pandemia criou novos testes para as plataformas de redes sociais Foto: Dado Ruvic/Illustration/Reuters - 21/01/2021

Apesar dos incêndios ocasionais, as grandes plataformas cultivaram no exterior a imagem de guardiãs da livre expressão, ao mesmo tempo que mantinha uma estudada neutralidade política dentro dos EUA.

A ilusão da neutralidade das redes sociais em relação à política partidária começou a ruir em 2016, com efeitos que reverberam até hoje. Em maio daquele ano, o blog de tecnologia Gizmodo publicou uma reportagem relatando que funcionários progressistas do Facebook estavam suprimindo notícias de meios de imprensa de direita na influente página de Trending News.

O CEO do Facebook, Mark Zuckerberg, empreendeu um tour de pedidos de desculpas em altos escalões, ordenando treinamentos contra parcialidade para seus funcionários e demitindo os jornalistas encarregados da seção.

Enquanto o chefe da firma estava ocupado com o controle de danos, contudo, sua plataforma estava sendo explorada de novas maneiras durante os preparativos da campanha para a eleição presidencial de novembro de 2016 nos EUA.

Uma indústria artesanal de fake news estava prosperando no Facebook, à medida que seus textos falaciosos – que com frequência tinham inclinação pró-Trump –, por vezes, recebiam mais curtidas do que reportagens sobre acontecimentos reais.

77% dos usuários do Facebook já se depararam com uma notícia falsa na rede social Foto: Dado Ruvic/Reuters

Revelou-se depois da eleição de Trump que o lucro não era a única motivação da maré de conteúdo manipulador no Facebook. Operadores da Rússia também vinham usando contas falsas, grupos e páginas na rede social para disseminar conteúdo polarizador destinado a contrapor os americanos entre si.

Tentativas de funcionários do Facebook de abordar tanto o problema das fake news quanto das operações de informação russas foram minadas, noticiou o Washington Post, em razão do medo de seu líder de enfurecer ainda mais os conservadores.

Em 2017, muitos na esquerda passaram a culpar o Facebook e outras redes sociais de ter ajudado a eleger Trump, pressionando empresas de tecnologia a adotar posições mais firmes não apenas contra as fake news, mas também em relação às frequentes mentiras e provocações de cunho racial do então presidente.

Em resposta, as empresas de tecnologia desenvolveram softwares para ajudar a automatizar o processo de marcação de posts capazes de violar suas crescentemente complexas cartilhas de regras.

Ainda que seus esforços tenham removido posts inflamatórios dos apoiadores mais fervorosos de Trump, Facebook e Twitter relutaram em agir contra o presidente. As redes sociais também têm culpa na ascensão de um movimento supremacista branco mais vocal e visível, que usou os fóruns online para se radicalizar, recrutar membros e organizar eventos.

Para progressistas, isso reforçou a ligação entre o discurso online e a violência no mundo real, tornando a moderação de conteúdo literalmente questão de vida ou morte.

As plataformas ficaram gradualmente mais rígidas com Trump, à medida que ele começou a prever uma “eleição fraudada” e classificar o voto pelo correio como “fraudulento”, abrindo caminho para sua tentativa de contestar os resultados da seguinte eleição presidencial. A relutância das empresas de tecnologia em penalizar um presidente no exercício do cargo estava colidindo com as políticas contra desinformação. / TRADUÇÃO DE AUGUSTO CALIL

THE WASHINGTON POST - No início do ano passado, em meio a críticas afirmando que as redes sociais estavam espalhando desinformação sobre a covid-19, o Facebook ampliou uma campanha para policiar informações falsas, banindo o que classificou como “alegações desmascaradas”. Entre elas, de que o coronavírus era “fabricado pelo homem” e tinha vazado de um laboratório da China.

Para o governo de Joe Biden e o establishment científico, os esforços do Facebook de impedir a disseminação de desinformação foram insuficientes, dada a maneira que sua rede havia ajudado notícias falsas viralizarem. Mas outros reclamaram que as manobras do Facebook esmagaram debates legítimos a respeito do frustrante desempenho das autoridades de saúde – uma visão que foi em parte justificada quando a falta de transparência da China fez com que cientistas declarassem “viável” a teoria de vazamento do laboratório e pedissem mais investigações.

Em maio de 2021, pouco mais de três meses depois de impor o banimento, o Facebook recuou: “Sob a luz das investigações a respeito das origens da covid e de consultas com especialistas, não removeremos mais a afirmação de que a covid-19 é fabricada pelo homem de nossos aplicativos”.

Vigias do lado de fora do Instituto de Virologia de Wuhan durante visita deequipe da OMS, em fevereiro. Foto: Reuters/Thomas Peter

O que as pessoas podem ou não dizer online e o papel das grandes empresas de tecnologia nessas decisões ganharam o centro do debate na política americana. A esquerda defende moderação no conteúdo para conter desinformação, racismo e misoginia. A direita diz que isso é censura e exige livre expressão.

Nos meses recentes, vários desdobramentos evidenciaram esta batalha. Na semana passada, a Suprema Corte aceitou a abertura de um processo que acusa o YouTube de incentivo ao terrorismo por recomendar conteúdo do Estado Islâmico. No mês passado, uma corte federal declarou constitucional uma lei que pretende evitar que plataformas de redes sociais removam ou limitem posts com base em posicionamentos políticos.

Enquanto isso, o homem mais rico do mundo, Elon Musk, está pressionando para fechar uma transação que lhe dará controle completo sobre o Twitter, cuja decisão de banir o ex-presidente Donald Trump depois do ataque contra o Capitólio, em 2021, reverberou talvez como o ato mais polêmico de moderação na história da internet. Musk afirmou que pretende restituir o perfil de Trump.

“Estamos nos aproximando de um momento crucial para a expressão online”, afirmou Daphne Keller, diretora do Programa sobre Regulação de Plataformas do Centro de Ciberpolíticas da Universidade Stanford. “As pressões políticas sobre moderação de conteúdo aumentaram tremendamente.”

Regras

A maneira com que os fóruns online estabelecem e aplicam regras para os usuários nunca foi tão polêmica. Quando a internet nasceu para os consumidores, na década de 90, congressistas de ambos os partidos compartilharam de um desejo de ver as firmas de tecnologia prosperar. Esse consenso sobreviveu em embates preliminares a respeito de pornografia, infrações de direitos autorais, fotos de mulheres amamentando e propaganda terrorista.

Em 1995, o ex-congressista republicano Christopher Cox ajudou a elaborar a lei que pavimentou o caminho para as gigantes da internet moderarem a expressão online. Na época, as implicações políticas eram tão baixas que os meios de comunicação mal notaram.

A internet dos consumidores começava a florescer, com milhões de americanos conectando-se a servidores como CompuServe, Prodigy e AOL. A maior preocupação da maioria dos congressistas era limitar pornografia para menores.

Cox e o então deputado democrata Ron Wyden tinham outra preocupação. Anteriormente, naquele ano, uma decisão em um caso de difamação contra a Prodigy sustentou que a tentativa da empresa de policiar seus fóruns online a tornava responsável pelo conteúdo gerado por seus usuários. Cox e Wyden se preocupavam com a possibilidade de o julgamento asfixiar a recém-nascida internet.

Liberdade

Então, eles propuseram um estatuto que concedia aos provedores de serviços online espaço para abrigar, distribuir e moderar conteúdos postados sem ser considerados responsáveis quando algo ilegal era postado. Hoje, parte da chamada Lei de Decência nas Comunicações passou a ser conhecida por sua localização: a Seção 230.

As primeiras decisões judiciais interpretaram a Seção 230 mais amplamente do que Cox e Wyden haviam previsto, estabelecendo imunidade para conteúdos postados pelos usuários. Isso abriu caminho para sites como Yahoo, Google e MSN. Depois, vieram o YouTube, que pertence ao Google, e o Facebook.

As plataformas puderam abrigar, agregar e organizar vastas quantidades de conteúdo sem ter de se preocupar muito, do ponto de vista legal, com o que seria informação falsa, prejudicial ou perigosa.

O resultado foi um modelo de negócios que, em comparação com os meios de comunicação tradicionais, dispensou criadores de conteúdo remunerados em favor de usuários comuns não remunerados e substituiu editores remunerados por algoritmos projetados para dar evidência a conteúdos mais relevantes, envolventes ou provocadores.

Uma placa com as principais organizações de notícias junto com as palavras "fake news" é exibida em comício de Donald Trump, em Michigan Foto: Joshua Roberts/Reuters - 28/04/2018

Ainda assim, a internet dos consumidores nunca foi uma zona irrestrita de livre expressão. As plataformas online mais bem-sucedidas logo descobriram que tinham de formular e fazer vigorar regras básicas ou seriam tomadas por pornografia, spam, golpes, assédios e discursos de ódio – e isso seria ruim para os negócios.

“Mesmo quando um fórum de internet começa com o objetivo de permitir liberdade de expressão, ele rapidamente esbarra no fato inevitável de que você tem de moderar se quiser ter um produto comercialmente viável”, disse Evelyn Douek, professora de direito de Stanford.

A necessidade de monitorar milhões de posts ao dia em sites fez ascender uma indústria de moderação de conteúdo comercial envolvendo grandes equipes que passam os dias tomando decisões rápidas a respeito de tirar do ar ou não posts que usuários marcam como ofensivos ou obscenos.

Para preservar a ilusão de uma “zona de livre expressão”, firmas de tecnologia tendem a se distanciar desse trabalho, terceirizando o serviço para empresas que pagam mal os funcionários em locais remotos, afirmou Sarah Roberts, autora de Behind the Screen: Content Moderation in the Shadows of Social Media.

Mesmo assim, algumas decisões se provaram espinhosas demais ou surtiram consequências que fizeram empresas de tecnologia varrer a sujeira para baixo do tapete.

Saddam

Em 2006, um vídeo chocante foi publicado no então novato YouTube: imagens granuladas e tremidas, captadas de maneira amadora, mostraram Saddam Hussein, o presidente deposto do Iraque, sendo enforcado por integrantes do novo governo iraquiano, alguns dos quais gritando insultos em seus momentos finais. As imagens não haviam sido fornecidas para os meios de comunicação e o vídeo expôs uma execução vingativa e indigna, contrariando os relatos oficiais.

A decisão de manter o vídeo no ar ou derrubá-lo caiu no colo da então vice-conselheira jurídica do Google, uma jovem advogada chamada Nicole Wong. “Decidimos que o vídeo da execução retratava um momento histórico e era importante que ele fosse compartilhado e assistido”, afirmou Wong, em uma conferência, em 2018.

Dois anos depois, um grupo de mães furiosas protestou diante dos escritórios em Palo Alto, do Facebook, então com 3 anos de idade, que vinha tirando do ar fotos de mães amamentando por considerar que as imagens violavam a política contra nudez no site.

O furor estimulou o Facebook a desenvolver sua primeira cartilha de regras para o que os usuários podiam ou não postar, delineando distinções detalhadas, talvez arbitrárias, para diferenciar imagens salubres de insalubres, entre outros aspectos.

Em 2020, a pandemia criou novos testes para as plataformas de redes sociais Foto: Dado Ruvic/Illustration/Reuters - 21/01/2021

Apesar dos incêndios ocasionais, as grandes plataformas cultivaram no exterior a imagem de guardiãs da livre expressão, ao mesmo tempo que mantinha uma estudada neutralidade política dentro dos EUA.

A ilusão da neutralidade das redes sociais em relação à política partidária começou a ruir em 2016, com efeitos que reverberam até hoje. Em maio daquele ano, o blog de tecnologia Gizmodo publicou uma reportagem relatando que funcionários progressistas do Facebook estavam suprimindo notícias de meios de imprensa de direita na influente página de Trending News.

O CEO do Facebook, Mark Zuckerberg, empreendeu um tour de pedidos de desculpas em altos escalões, ordenando treinamentos contra parcialidade para seus funcionários e demitindo os jornalistas encarregados da seção.

Enquanto o chefe da firma estava ocupado com o controle de danos, contudo, sua plataforma estava sendo explorada de novas maneiras durante os preparativos da campanha para a eleição presidencial de novembro de 2016 nos EUA.

Uma indústria artesanal de fake news estava prosperando no Facebook, à medida que seus textos falaciosos – que com frequência tinham inclinação pró-Trump –, por vezes, recebiam mais curtidas do que reportagens sobre acontecimentos reais.

77% dos usuários do Facebook já se depararam com uma notícia falsa na rede social Foto: Dado Ruvic/Reuters

Revelou-se depois da eleição de Trump que o lucro não era a única motivação da maré de conteúdo manipulador no Facebook. Operadores da Rússia também vinham usando contas falsas, grupos e páginas na rede social para disseminar conteúdo polarizador destinado a contrapor os americanos entre si.

Tentativas de funcionários do Facebook de abordar tanto o problema das fake news quanto das operações de informação russas foram minadas, noticiou o Washington Post, em razão do medo de seu líder de enfurecer ainda mais os conservadores.

Em 2017, muitos na esquerda passaram a culpar o Facebook e outras redes sociais de ter ajudado a eleger Trump, pressionando empresas de tecnologia a adotar posições mais firmes não apenas contra as fake news, mas também em relação às frequentes mentiras e provocações de cunho racial do então presidente.

Em resposta, as empresas de tecnologia desenvolveram softwares para ajudar a automatizar o processo de marcação de posts capazes de violar suas crescentemente complexas cartilhas de regras.

Ainda que seus esforços tenham removido posts inflamatórios dos apoiadores mais fervorosos de Trump, Facebook e Twitter relutaram em agir contra o presidente. As redes sociais também têm culpa na ascensão de um movimento supremacista branco mais vocal e visível, que usou os fóruns online para se radicalizar, recrutar membros e organizar eventos.

Para progressistas, isso reforçou a ligação entre o discurso online e a violência no mundo real, tornando a moderação de conteúdo literalmente questão de vida ou morte.

As plataformas ficaram gradualmente mais rígidas com Trump, à medida que ele começou a prever uma “eleição fraudada” e classificar o voto pelo correio como “fraudulento”, abrindo caminho para sua tentativa de contestar os resultados da seguinte eleição presidencial. A relutância das empresas de tecnologia em penalizar um presidente no exercício do cargo estava colidindo com as políticas contra desinformação. / TRADUÇÃO DE AUGUSTO CALIL

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.