*Atualizado às 11h20 do dia 29 de outubro para incluir informações de novos documentos
As denúncias feitas contra o Facebook por Frances Haugen, ex-funcionária da empresa, ganharam nova dimensão na última sexta-feira, 22. Um consórcio chamado “The Facebook Papers”, formado por 17 veículos jornalísticos dos Estados Unidos, incluindo New York Times, CNN e Washington Post, começou a publicar detalhes de documentos vazados da companhia de Mark Zuckerberg.
Os arquivos mostram que o Facebook foi alertado por funcionários sobre a disseminação de desinformação e discurso de ódio antes das eleições americanas de 2020 e também em países como a Índia. Além disso, pesquisas internas da empresa revelam que os algoritmos da plataforma impulsionam conteúdos de movimentos conspiratórios como o QAnon. Outro documento revela como o Facebook está lidando com as consequências de ferramentas que se tornaram o DNA da rede social, como o botão "curtir".
Os veículos jornalísticos tiveram acesso a documentos recebidos pelo Congresso americano, em grande maioria os materiais divulgados por Frances Haugen, que prestou depoimento no Senado dos Estados Unidos em 5 de outubro – na ocasião, a ex-funcionária expôs a lógica da empresa de valorizar o crescimento em detrimento da segurança dos usuários. Novos delatores, porém, estão surgindo: o Washington Post afirmou na sexta-feira que outro ex-funcionário do Facebook também enviou uma denúncia à Securities and Exchange Commission (SEC, na sigla em inglês), órgão regulador das empresas listadas em bolsa nos EUA.
As primeiras revelações de pesquisas internas do Facebook começaram em setembro com uma série de reportagens do Wall Street Journal, que se basearam inicialmente nas revelações de Frances Haugen. O dossiê indicou que o Facebook aumenta o alcance de publicações de ódio, permite a circulação de conteúdos sobre tráfico humano e de drogas, trata celebridades e políticos com regras diferenciadas e não mantém o mesmo nível de moderação em países fora dos Estados Unidos. Também foram divulgados detalhes sobre o impacto do Instagram na saúde mental de crianças e adolescentes: estudos feitos pela própria empresa mostraram que 1 em cada 3 meninas que se sentiam mal com o próprio corpo ficavam ainda pior ao acessar o Instagram. O Facebook tem respondido às acusações nas últimas semanas dizendo que as pesquisas estão sendo mal-interpretadas.
Abaixo, veja o que dizem os documentos divulgados pelo Facebook Papers.
Rede social pode ser tóxica para mulheres da política
Documentos revelados pela Forbes nesta quarta-feira, 27, mostram que conversas sobre política na rede social tendem a ser prejudiciais, principalmente quando se trata de mulheres concorrendo a cargos públicos. Pesquisa interna da rede social detalha que esse é um problema comum em todo mundo, até mesmo em países governados por mulheres.
Facebook não tem ideia de como melhorar sua imagem
Em reportagem publicada nesta quarta-feira, 27, o Gizmodo afirma que o Facebook não sabe como resolver seu problema de imagem. Documentos internos acessados pelo site sugerem que a empresa tem uma estratégia fraca para resistir às crises de relações públicas: depois de identificarem a confiança baixa em relação à companhia, pesquisadores do Facebook sugeriram a construção de fidelidade “por meio de experiências com produtos” e mudanças na equipe, como contratação de mais pessoas pretas.
Facebook fermentou 'guerra civil social' na Polônia
Documentos revelados pelo Washington Post nesta quarta-feira, 27, mostram que a maioria dos partidos políticos na Polônia tem reclamações sobre os algoritmos do Facebook, que decidem quais postagens aparecem no feed de notícias de um usuário e quais desaparecem – o partido Confederação, de extrema direita, não. Dentro do Facebook, é sabido há anos que a empresa pode estar ampliando a indignação, enquanto impulsiona a polarização e eleva as partes mais radicais ao redor do mundo.
Facebook deixa passar desinformação sobre mudança climática
Uma reportagem do Gizmodo publicada nesta terça-feira, 26, mostra que o Facebook tem políticas frouxas para lidar com desinformação sobre mudança climática. De acordo com o site, que teve acesso a conversas internas de funcionários, a empresa define poucas regras e permite a circulação de publicações enganosas sobre o tema.
Mark Zuckerberg manteve vídeo desinformativo sobre aborto
Documentos revelados pelo Financial Times nesta segunda-feira, 25, mostram que Mark Zuckerberg interveio pessoalmente em 2019 para manter na plataforma um vídeo desinformativo que afirmava que o aborto “nunca é clinicamente necessário” – o presidente executivo da rede social teria feito isso para acalmar ânimos de republicanos conservadores nos Estados Unidos.
Reações na plataforma amplificam conteúdo tóxico
Uma reportagem do Washington Post publicada nesta terça-feira, 26, revela que a partir de 2017 o algoritmo de classificação do Facebook passou a tratar as reações de emojis (“amor”, "haha", "uau", "triste" e "zangado") como cinco vezes mais valiosas do que o botão "curtir" – a ideia era valorizar postagens com muitas reações para manter os usuários engajados na plataforma.
De acordo com o jornal, os próprios pesquisadores do Facebook logo suspeitaram que a mudança tinha falhas: favorecer postagens “polêmicas” (incluindo aquelas que irritavam os usuários) poderia abrir a porta para mais conteúdos tóxicos.
Facebook está despreparado para outros idiomas
Documentos revelados pela CNN nesta terça-feira, 26, mostram que o plano de expansão global do Facebook teve um preço. Pesquisadores do Facebook alertaram repetidamente que a empresa estava mal preparada para lidar com questões como discurso de ódio e desinformação em outros idiomas além do inglês – isso poderia tornar usuários de países politicamente instáveis mais vulneráveis à violência no mundo real, segundo pesquisas internas da companhia.
Observar o Brasil é prioridade para a empresa
Uma reportagem do site The Verge, publicada nesta segunda-feira, 25, mostrou que funcionários do Facebook criaram no final de 2019 uma classificação para diferentes países: Brasil, Índia e Estados Unidos foram colocados como a maior prioridade de monitoramento. Segundo o site, a rede social configurou “salas de guerra” para acompanhar a rede continuamente nesses locais e alertar os funcionários eleitorais de cada país sobre quaisquer problemas.
Alemanha, Indonésia, Irã, Israel e Itália foram colocados no segundo nível de observação – esses países receberiam recursos semelhantes, com exceção de alguns recursos para a aplicação das regras do Facebook e para alertas fora do período de eleições.
Facebook domina o mercado de redes sociais
Documentos revelados pelo Politico nesta segunda-feira, 25, mostram que o Facebook sabe que domina o mercado de redes sociais – o que pode complicar os argumentos da empresa em processos antitruste nos Estados Unidos. Segundo pesquisas internas da companhia, cerca de 78% dos adultos americanos e quase todos os adolescentes americanos usam os serviços da companhia de Mark Zuckerberg. Além disso, embora concorrentes como TikTok e Snap estejam fazendo sucesso com jovens de 13 a 17 anos, eles ficam atrás do Facebook e do Instagram em métricas fundamentais como compartilhamento e comunidade.
O papel de Mark Zuckerberg no crescimento a qualquer custo
O Washington Post publicou nesta segunda-feira, 25, uma reportagem sobre o papel de Mark Zuckerberg nas escolhas de valorização do crescimento do Facebook em detrimento da segurança dos usuários. O jornal mostrou que o fundador e presidente executivo da empresa teve de optar entre cumprir as exigências do Partido Comunista do Vietnã para censurar a oposição ou correr o risco de ficar offline em um dos mercados asiáticos mais lucrativos do Facebook. De acordo com três pessoas familiarizadas com o assunto, Zuckerberg decidiu pessoalmente que o Facebook atenderia às exigências do governo vietnamita. Então, o Facebook aumentou significativamente a censura de postagens de oposição, dando ao governo controle quase total sobre a plataforma.
Facebook luta contra os efeitos de ferramentas como o botão ‘curtir’
Publicada nesta segunda-feira, 25, uma reportagem do New York Times mostra como o Facebook está lidando com os efeitos de ferramentas da rede social. De acordo com documentos obtidos pelo jornal, pesquisadores do Facebook começaram em 2019 um estudo sobre o botão “curtir” para avaliar o que as pessoas fariam se o Facebook removesse as reações de postagens no Instagram. Os pesquisadores descobriram que os botões às vezes causavam “estresse e ansiedade" nos usuários mais jovens do Instagram, especialmente se as postagens não recebessem curtidas suficientes de amigos.
Além disso, em um memorando interno de agosto de 2019, vários pesquisadores da empresa disseram que foi a "mecânica do produto principal" do Facebook – ou seja, os fundamentos de como o produto funcionava – que permitiu que desinformação e discurso de ódio se espalhassem pela plataforma. “A mecânica da nossa plataforma não é neutra”, concluíram.
Facebook perdeu relevância entre as novas gerações
De acordo com uma reportagem do The Verge publicada nesta segunda-feira, 25, uma pesquisa do Facebook realizada neste ano revelou que a quantidade de usuários adolescentes da plataforma nos EUA diminuiu 13% desde 2019 – além disso, o estudo mostra uma projeção de queda de 45% nos próximos dois anos, o que impactaria o dado de usuários ativos diariamente na rede social, uma métrica altamente usada para o mercado publicitário. A pesquisa mostra ainda que quanto mais jovem era o usuário, menos, em média, ele se envolvia regularmente com o aplicativo.
Índia é a versão amplificada dos problemas do Facebook
Uma reportagem do New York Times publicada em 23 de outubro detalha os problemas do Facebook na Índia, que é o maior mercado da rede social. Documentos internos da empresa mostram a dificuldade em conter desinformação, discursos de ódio e violência no país.
Segundo o jornal, em fevereiro de 2019, um pesquisador do Facebook criou uma nova conta na rede social para entender como é ser um usuário da plataforma no Estado de Querala, na Índia. Por três semanas, a conta seguiu todas as recomendações geradas pelos algoritmos do Facebook para ingressar em grupos, assistir a vídeos e explorar novas páginas no site. O resultado foi uma inundação de discursos de ódio e desinformação.
Funcionários alertaram sobre problemas nas eleições americanas
Outra reportagem do New York Times, publicada em 22 de outubro, detalha que funcionários do Facebook alertaram várias vezes a empresa sobre a disseminação de conteúdos com desinformação, discurso de ódio e conspiração sobre a votação antes das eleições americanas de novembro. Documentos obtidos pela reportagem mostram que, mesmo com os pedidos de ação, a companhia falhou ou relutou em resolver os problemas.
Algoritmos do Facebook incentivam extremismos
Uma reportagem da NBC News, publicada em 22 de outubro, mostra que o Facebook sabe há muito tempo que seus algoritmos e sistemas de recomendação incentivam extremismos.
Um relatório chamado “Carol’s Journey to QAnon” (Jornada de Carol ao QAnon, em tradução do inglês) detalha um experimento desenvolvido por um pesquisador do Facebook: foi criada uma conta fictícia de uma usuária chamada Carol Smith, descrita como uma mãe politicamente conservadora da cidade Wilmington, Carolina do Norte. A pesquisa mostra que, embora a pessoa imaginária nunca tenha expressado interesse em teorias da conspiração, em apenas dois dias o Facebook recomendou que ela participasse de grupos dedicados ao QAnon, movimento conspiratório criado pela extrema-direita americana pró-Trump.
Reação tardia ao movimento ‘Stop the Steal’
Arquivos revelados pela CNN em 23 de outubro indicam que o Facebook estava “fundamentalmente despreparado” para conter o “Stop the Steal”, movimento que alegava que a eleição foi fraudada contra Trump e que desempenhou papel central no ataque ao Capitólio em 6 de janeiro nos EUA. Com indicações de tempo, um documento mostra medidas que funcionários do Facebook estavam implementando tardiamente e revela que a empresa só realmente entrou em ação depois que o movimento se tornou violento.
Violência no ataque ao Capitólio
O Washington Post divulgou em 22 de outubro arquivos com novos detalhes do papel do Facebook no fomento à invasão do Capitólio. A reportagem mostra mensagens trocadas internamente por funcionários do Facebook, questionando a responsabilidade da empresa no ataque. “Temos lido postagens [de despedida] de colegas de confiança, experientes e amados que escrevem que simplesmente não conseguem trabalhar para uma empresa que não faz mais para mitigar os efeitos negativos em sua plataforma”, teria escrito um dos funcionários.
Algoritmo aumenta alcance de conteúdos de ódio
O primeiro pacote de documentos começou a ser revelado em setembro pelo Wall Street Journal. Um deles mostra que conteúdos que fomentam o ódio, a intolerância e até mesmo a desinformação tendem a viralizar mais do que outras postagens na rede social.
Em 2018, a rede social de Mark Zuckerberg estava passando por uma queda no engajamento dos usuários, o que levou à criação de um mecanismo chamado “meaningful social interactions” (em tradução livre, algo como “interações sociais significativas”). Esse mecanismo cria um “score” e atribui às publicações pontos que variam de acordo com seu conteúdo.
Nesse score, posts que geram engajamento de cunho “negativo” são privilegiados. Por exemplo, postagens com mais reações com emojis de “raiva” ou reclamações nos comentários ganhavam mais pontos do que as “neutras” ou positivas. Quanto mais pontos, maiores seriam as chances de o post aparecer no feed de outros usuários, ganhando, portanto, mais alcance.
Instagram afeta a saúde mental de adolescentes
Outro relatório interno da empresa divulgado pelo Wall Street Journal indica que o Instagram, aplicativo do Facebook, causa impacto na autoestima e saúde mental de adolescentes: uma pesquisa do Facebook realizada em março de 2020 apontou que ao menos 30% das meninas que usam Instagram se sentiam mal com o próprio corpo ou ficavam ainda piores depois de acessar a rede. Entre as últimas revelações, o impacto do app em adolescentes tem sido o tema mais debatido no Congresso americano.
Lista VIP
Há também a informação de que a rede social teria um peso e duas medidas, dependendo do usuário, sobre como as regras do site são aplicadas. Os documentos revelam a existência de uma “lista VIP” de usuários que escapam das políticas e termos de uso das plataformas. Essas personalidades, que vão desde o ex-presidente americano Donald Trump até o jogador Neymar, contam com uma espécie de “passe livre” quando postam conteúdos que violam as políticas da empresa.
Ou seja, as pessoas dessa lista estão sujeitas a um tipo mais brando de moderação no Facebook (que, em condições normais, poderia excluir imediatamente um post com conteúdo sensível ou até suspender temporariamente a conta). Além disso, as “regalias” da lista VIP incluíam alguns cuidados extras, como a possibilidade de receber um aviso particular do Facebook para deletar algum conteúdo antes que a plataforma pudesse fazê-lo.
Tráficos humano e de drogas ‘escapam’
Também segundo o Wall Street Journal, moderadores do Facebook vinham acompanhando com preocupação o uso da rede social por traficantes de drogas e organizações criminosas envolvidas com o tráfico de pessoas ao redor do mundo. Embora esses conteúdos muitas vezes fossem interceptados por funcionários da empresa, o Facebook não conseguia eliminá-los completamente, diz o jornal.
Esse posicionamento permitiu, por exemplo, que um cartel mexicano de drogas recrutasse membros para uma facção criminosa ou que mulheres do leste europeu fossem submetidas a regimes análogos à escravidão em trabalhos de prostituição.
Violência contra minorias
Outra revelação sobre a rede social mostrada pelo Wall Street Journal – e que ganhou ainda mais destaque com o depoimento de Frances Haugen no Senado americano – foi o papel do Facebook nas tensões políticas em países como Etiópia e Mianmar.
No mês de junho, uma investigação da organização de direitos humanos Global Witness já havia apontado que os algoritmos do Facebook ajudaram a promover e incitar a violência em Mianmar, enquanto o país lidava com a tensão política do golpe militar que derrubou o governo eleito no início deste ano. Lá, quando um usuário curtia uma página de apoio aos militares do país, por exemplo, o próprio Facebook já recomendava ao usuário outras páginas com o mesmo teor, embora estas não necessariamente obedecessem às políticas de uso da rede, já que promoviam o ódio e a violência.
Na Etiópia, que atualmente enfrenta uma guerra civil, a situação é parecida: os algoritmos do Facebook também são apontados como co-responsáveis pela escalada do discurso de ódio e a incitação à violência entre a população.
Os comentários são exclusivos para assinantes do Estadão.