Documentos internos mostram que Facebook sabia de desinformação na eleição americana de 2020


Funcionários soaram alarmes e pediram ações da empresa, que demonstrou dificuldade em lidar com os problemas

Por Ryan Mac e Sheera Frenkel
Atualização:

Dezesseis meses antes da eleição presidencial americana, em novembro passado, uma pesquisadora do Facebook descreveu um cenário alarmante. Ela estava recebendo conteúdo conspiratório do grupo QAnon uma semana após abrir uma conta de testes, o que contou em um relatório interno.

Em 5 de novembro, dois dias após a eleição, outro funcionário do Facebook postou uma mensagem alertando os colegas de que comentários com “informações inflamáveis sobre as eleições” eram visíveis abaixo de muitas postagens.

Quatro dias depois, um cientista de dados da empresa escreveu em uma nota a seus colegas de trabalho que 10% de todas as visualizações dos EUA sobre material político -- um número surpreendentemente alto -- eram de postagens que alegavam que a votação era fraudulenta.

continua após a publicidade

Os alarmes vieram acompanhados de pedidos de ação, mas a empresa falhou em resolver os problemas. Os despachos internos fazem parte de um conjunto de documentos do Facebook obtidos pelo The New York Times que fornecem uma nova visão sobre o que aconteceu dentro da rede social antes e depois das eleições de novembro.

Publicamente, o Facebook culpou o ex-presidente Donald Trump e outras plataformas sociais pela proliferação de fake news eleitorais. Em meados de janeiro, Sheryl Sandberg, chefe de operações do Facebook, disse que a rebelião de 6 de janeiro no Capitólio foi "amplamente organizada em plataformas que não têm nossa capacidade de deter o ódio". Mark Zuckerberg, presidente-executivo do Facebook, disse aos legisladores americanos em março que a empresa "fez sua parte para garantir a integridade de nossa eleição".

Mas os documentos da empresa mostram até que ponto o Facebook sabia sobre movimentos e grupos extremistas em sua plataforma. Eles também fornecem novos detalhes sobre o quão cientes os pesquisadores da empresa estavam, após a eleição, do fluxo de desinformação que dizia que a contagem de votos havia sido fraudada.

continua após a publicidade

O que os documentos não oferecem é um quadro completo da tomada de decisões dentro do Facebook. Alguns estudos internos sugeriram que a empresa teve dificuldades em exercer controle sobre a escala de sua rede e a rapidez com que as informações se espalharam, enquanto outros relatórios sugeriram que o Facebook estava preocupado em perder o engajamento ou prejudicar sua reputação.

No entanto, o que é inegável é que os próprios funcionários do Facebook acreditavam que a rede social poderia ter feito mais para barrar esse fluxo, de acordo com os documentos.

“A fiscalização foi fragmentada”, dizia uma análise interna de março sobre a resposta do Facebook aos grupos Stop the Steal, que alegava que a eleição foi fraudada contra Trump. Os autores do relatório disseram que esperavam que o relatório pudesse ser um guia de como o Facebook poderia "fazer melhor da próxima vez".

continua após a publicidade

Muitas das dezenas de documentos do Facebook revisados ​​pelo The Times não foram publicados anteriormente. Alguns dos relatórios internos foram obtidos inicialmente por Frances Haugen, uma ex-gerente de produto do Facebook que fez denúncias contra a empresa.

Documentos internos mostram que Facebook sabia de desinformação na eleição americana de 2020 Foto: Jonathan Ernst/REUTERS

Os documentos de Haugen, alguns dos quais publicados pelo The Wall Street Journal, geraram protestos entre legisladores e reguladores, mergulhando o Facebook em uma de suas piores crises de relações públicas em anos. As revelações de Haugen, que planeja comparecer a uma audiência no Parlamento britânico nesta segunda-feira, 25, trouxeram de volta questões sobre o papel que a empresa desempenhou nos eventos que levaram ao motim no Capitólio, em 6 de janeiro.

continua após a publicidade

Yaël Eisenstat, uma ex-funcionária do Facebook que supervisionava a proteção e a segurança em anúncios de eleições no mundo todos, disse que a pesquisa da empresa mostrou que ela havia tentado examinar suas responsabilidades em torno das eleições de 2020. Mas “se nada mudar”, disse ela, tudo terá sido um desperdício. “Eles deveriam estar tentando entender se a maneira como projetaram o produto é o problema”, afirmou.

Andy Stone, um porta-voz do Facebook, disse que a empresa estava “orgulhosa” do trabalho que fez para “proteger” as eleições de 2020. Ele disse que o Facebook trabalhou com agentes de aplicação da lei, implementou medidas de segurança e monitorou de perto o que estava acontecendo em sua plataforma.

“As medidas de que precisávamos permaneceram em vigor até fevereiro e algumas, como não recomendar novos grupos cívicos ou políticos, permanecem em vigor até hoje”, disse ele. “A responsabilidade pela violência ocorrida em 6 de janeiro é daqueles que atacaram nosso Capitólio e daqueles que os encorajaram.”

continua após a publicidade

Uma Jornada QAnon

Durante anos, os funcionários do Facebook alertaram sobre o potencial da rede social para radicalizar os usuários, de acordo com os documentos.

Em julho de 2019, uma pesquisadora de uma empresa que estudava a polarização fez uma descoberta surpreendente: uma conta de teste que ela criou simulando uma “mãe conservadora” da Carolina do Norte recebeu recomendações de conteúdo de teoria da conspiração uma semana após sua fundação.

continua após a publicidade

A pesquisa interna, intitulada "Jornada de Carol para QAnon", detalhou como a conta do Facebook para uma mulher imaginária chamada Carol Smith tinha seguido as páginas da Fox News e da Sinclair Broadcasting. Em poucos dias, o Facebook recomendou páginas e grupos relacionados ao QAnon, a teoria da conspiração que afirmava falsamente que Trump estava enfrentando uma conspiração obscura liderada por pedófilos democratas.

Ao final de três semanas, o feed da conta do Facebook de Carol Smith havia evoluído ainda mais. “Tornou-se um fluxo constante de conteúdo enganoso, polarizador e de baixa qualidade”, escreveu a pesquisadora.

A pesquisadora, que mais tarde realizou experimentos de polarização em uma conta de teste orientada à esquerda, deixou o Facebook em agosto de 2020, mesmo mês em que a empresa reprimiu as páginas e grupos do QAnon.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha 'a responsabilidade de proteger nossa democracia' Foto: Mandel Ngan/AFP

Em sua nota de saída, que foi revisada pelo The Times e anteriormente reportada pelo BuzzFeed News, a pesquisadora afirmou que o Facebook estava "conscientemente expondo os usuários a riscos de danos à integridade" e citou a lentidão da empresa em agir contra o QAnon como um motivo para sua saída.

Dia da Eleição

Durante meses, a empresa refinou medidas de emergência conhecidas como planos de “quebra de vidros” - como desacelerar a formação de novos grupos no Facebook - no caso de um resultado contestado. O Facebook também contratou dezenas de milhares de funcionários para proteger o site para a eleição, consultou especialistas jurídicos e políticos e ampliou as parcerias com organizações de verificação de fatos.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha “a responsabilidade de proteger nossa democracia”. Ele destacou uma campanha de registro de eleitores que o Facebook financiou e descreveu as medidas que a empresa havia tomado -- como remover informações incorretas e bloquear anúncios políticos -- para "reduzir as chances de violência e agitação".

Muitas medidas pareceram ajudar. O dia da eleição veio e passou sem grandes contratempos no Facebook.

Mas depois que a contagem de votos mostrou uma disputa acirrada entre Trump e Joe Biden, então candidato democrata à presidência, Trump postou na madrugada de 4 de novembro no Facebook e no Twitter: “Eles estão tentando ROUBAR a eleição."

Os documentos internos mostram que os usuários encontraram no Facebook maneiras de minar a confiança no voto.

Em 5 de novembro, um funcionário do Facebook postou uma mensagem em um grupo interno chamado “Feedback do feed de notícias”. Em sua nota, ele disse aos colegas que informações mentirosas sobre os votos eram visíveis na seção de comentários das postagens. Pior ainda, disse o funcionário, os comentários mais incendiários estavam sendo amplificados para aparecer no topo das sequências de comentários, espalhando informações imprecisas.

Então, em 9 de novembro, um cientista de dados do Facebook disse a vários colegas em uma postagem interna que a quantidade de conteúdo na rede social lançando dúvidas sobre os resultados da eleição havia disparado. Até uma em cada 50 visualizações no Facebook nos Estados Unidos, ou 10% de todas as visualizações de material político, era de conteúdo declarando o voto fraudulento, escreveu o pesquisador.

“Havia também uma margem de incitamento à violência”, escreveu ele no post.

Mesmo assim, o Facebook começou a relaxar suas medidas de emergência em novembro, disseram três ex-funcionários. O período crítico pós-eleitoral parece ter passado e a empresa teme que algumas medidas pré-eleitorais, como a redução do alcance de páginas marginais dedireita, levem a reclamações dos usuários, disseram.

6 de janeiro

Na manhã de 6 de janeiro, com os manifestantes reunidos perto do prédio do Capitólio em Washington, alguns funcionários do Facebook consultaram uma planilha. Lá, eles começaram a catalogar as medidas que a empresa estava tomando contra a desinformação eleitoral e o conteúdo inflamatório em sua plataforma.

As reclamações dos usuários sobre postagens que incitaram a violência dispararam naquela manhã, de acordo com dados da planilha.

Ao longo daquele dia, quando uma multidão invadiu o Capitólio, os funcionários atualizaram a planilha com as ações que estavam sendo tomadas, disse um trabalhador envolvido no esforço. Das dezenas de etapas que os funcionários do Facebook recomendaram, algumas -- como permitir que os engenheiros da empresa excluam em massa postagens que estavam sendo denunciadas por promover violência -- foram implementadas.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas Foto: Olivier Douliery/AFP

Mas outras medidas, como evitar que grupos mudem seus nomes para termos como Stop the Steal, não foram totalmente implementadas por causa de falhas tecnológicas de última hora, de acordo com a planilha.

Zuckerberg e Mike Schroepfer, diretor de tecnologia do Facebook, postaram notas internas expressando tristeza com o motim no Capitólio. Mas alguns funcionários do Facebook responderam com raiva, de acordo com mensagens vistas pelo The Times.

“Eu gostaria de sentir o contrário, mas simplesmente não é suficiente dizer que estamos nos adaptando, porque já deveríamos ter nos adaptado há muito tempo”, escreveu um funcionário. “Havia dezenas de grupos Stop the Steal ativos até ontem, e eu duvido que eles mediram palavras sobre suas intenções.”

Outro escreveu: “Sempre achei que, no geral, meu trabalho foi significativo e útil para o mundo. Mas, honestamente, este é um dia muito sombrio para mim”.

Em um relatório de 7 de janeiro, ficou claro o escopo do que ocorrera no Facebook. O número de relatos de conteúdos que potencialmente violaram as políticas da empresa foi sete vezes maior do que nas semanas anteriores, disse o relatório. Vários dos posts, descobriram os pesquisadores, “sugeriram a derrubada do governo” ou “expressaram apoio à violência”.

Post-mortem

Em março, pesquisadores do Facebook publicaram dois relatórios internos avaliando o papel da empresa nos movimentos sociais que impulsionaram as mentiras da fraude eleitoral.

Em um deles, um grupo de funcionários disse que o Facebook exibiu “o padrão”. Isso envolveu a empresa inicialmente tomar “ação limitada ou nenhuma” contra o QAnon e outros movimentos de deslegitimação eleitoral, apenas para agir e remover esse conteúdo quando eles já tivessem ganhado força. O documento foi publicado anteriormente pelo The Wall Street Journal.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas. Como resultado, as postagens que “poderiam ser interpretadas como dúvidas razoáveis ​​sobre os processos eleitorais” não foram removidas porque não violavam essas regras.

Essas postagens criaram um ambiente que contribuiu para a instabilidade social, disse o relatório.

Outro relatório, intitulado "Stop the Steal e o Partido Patriota: Crescimento e Mitigação de um Movimento Adversarial Nocivo", descreveu como as pessoas exploraram o recurso de grupos do Facebook para formar rapidamente comunidades de deslegitimação eleitoral no site antes de 6 de janeiro.

Alguns organizadores enviaram centenas de convites para criar os grupos, em moldes de spam, descobriu o relatório. Eles também pediram a todos os participantes que convidassem o máximo de pessoas possível, fazendo com que os grupos aumentassem de tamanho. 

Alguns organizadores dos grupos Stop the Steal no Facebook também pareciam estar cooperando uns com os outros para “fazer o movimento crescer”, disse o relatório.

“A retrospectiva torna ainda mais importante olhar para trás, para aprender o que pudermos sobre o crescimento dos movimentos eleitorais deslegitimadores que cresceram, espalharam conspiração e ajudaram a incitar a insurreição do Capitólio”, disse o relatório.

Dezesseis meses antes da eleição presidencial americana, em novembro passado, uma pesquisadora do Facebook descreveu um cenário alarmante. Ela estava recebendo conteúdo conspiratório do grupo QAnon uma semana após abrir uma conta de testes, o que contou em um relatório interno.

Em 5 de novembro, dois dias após a eleição, outro funcionário do Facebook postou uma mensagem alertando os colegas de que comentários com “informações inflamáveis sobre as eleições” eram visíveis abaixo de muitas postagens.

Quatro dias depois, um cientista de dados da empresa escreveu em uma nota a seus colegas de trabalho que 10% de todas as visualizações dos EUA sobre material político -- um número surpreendentemente alto -- eram de postagens que alegavam que a votação era fraudulenta.

Os alarmes vieram acompanhados de pedidos de ação, mas a empresa falhou em resolver os problemas. Os despachos internos fazem parte de um conjunto de documentos do Facebook obtidos pelo The New York Times que fornecem uma nova visão sobre o que aconteceu dentro da rede social antes e depois das eleições de novembro.

Publicamente, o Facebook culpou o ex-presidente Donald Trump e outras plataformas sociais pela proliferação de fake news eleitorais. Em meados de janeiro, Sheryl Sandberg, chefe de operações do Facebook, disse que a rebelião de 6 de janeiro no Capitólio foi "amplamente organizada em plataformas que não têm nossa capacidade de deter o ódio". Mark Zuckerberg, presidente-executivo do Facebook, disse aos legisladores americanos em março que a empresa "fez sua parte para garantir a integridade de nossa eleição".

Mas os documentos da empresa mostram até que ponto o Facebook sabia sobre movimentos e grupos extremistas em sua plataforma. Eles também fornecem novos detalhes sobre o quão cientes os pesquisadores da empresa estavam, após a eleição, do fluxo de desinformação que dizia que a contagem de votos havia sido fraudada.

O que os documentos não oferecem é um quadro completo da tomada de decisões dentro do Facebook. Alguns estudos internos sugeriram que a empresa teve dificuldades em exercer controle sobre a escala de sua rede e a rapidez com que as informações se espalharam, enquanto outros relatórios sugeriram que o Facebook estava preocupado em perder o engajamento ou prejudicar sua reputação.

No entanto, o que é inegável é que os próprios funcionários do Facebook acreditavam que a rede social poderia ter feito mais para barrar esse fluxo, de acordo com os documentos.

“A fiscalização foi fragmentada”, dizia uma análise interna de março sobre a resposta do Facebook aos grupos Stop the Steal, que alegava que a eleição foi fraudada contra Trump. Os autores do relatório disseram que esperavam que o relatório pudesse ser um guia de como o Facebook poderia "fazer melhor da próxima vez".

Muitas das dezenas de documentos do Facebook revisados ​​pelo The Times não foram publicados anteriormente. Alguns dos relatórios internos foram obtidos inicialmente por Frances Haugen, uma ex-gerente de produto do Facebook que fez denúncias contra a empresa.

Documentos internos mostram que Facebook sabia de desinformação na eleição americana de 2020 Foto: Jonathan Ernst/REUTERS

Os documentos de Haugen, alguns dos quais publicados pelo The Wall Street Journal, geraram protestos entre legisladores e reguladores, mergulhando o Facebook em uma de suas piores crises de relações públicas em anos. As revelações de Haugen, que planeja comparecer a uma audiência no Parlamento britânico nesta segunda-feira, 25, trouxeram de volta questões sobre o papel que a empresa desempenhou nos eventos que levaram ao motim no Capitólio, em 6 de janeiro.

Yaël Eisenstat, uma ex-funcionária do Facebook que supervisionava a proteção e a segurança em anúncios de eleições no mundo todos, disse que a pesquisa da empresa mostrou que ela havia tentado examinar suas responsabilidades em torno das eleições de 2020. Mas “se nada mudar”, disse ela, tudo terá sido um desperdício. “Eles deveriam estar tentando entender se a maneira como projetaram o produto é o problema”, afirmou.

Andy Stone, um porta-voz do Facebook, disse que a empresa estava “orgulhosa” do trabalho que fez para “proteger” as eleições de 2020. Ele disse que o Facebook trabalhou com agentes de aplicação da lei, implementou medidas de segurança e monitorou de perto o que estava acontecendo em sua plataforma.

“As medidas de que precisávamos permaneceram em vigor até fevereiro e algumas, como não recomendar novos grupos cívicos ou políticos, permanecem em vigor até hoje”, disse ele. “A responsabilidade pela violência ocorrida em 6 de janeiro é daqueles que atacaram nosso Capitólio e daqueles que os encorajaram.”

Uma Jornada QAnon

Durante anos, os funcionários do Facebook alertaram sobre o potencial da rede social para radicalizar os usuários, de acordo com os documentos.

Em julho de 2019, uma pesquisadora de uma empresa que estudava a polarização fez uma descoberta surpreendente: uma conta de teste que ela criou simulando uma “mãe conservadora” da Carolina do Norte recebeu recomendações de conteúdo de teoria da conspiração uma semana após sua fundação.

A pesquisa interna, intitulada "Jornada de Carol para QAnon", detalhou como a conta do Facebook para uma mulher imaginária chamada Carol Smith tinha seguido as páginas da Fox News e da Sinclair Broadcasting. Em poucos dias, o Facebook recomendou páginas e grupos relacionados ao QAnon, a teoria da conspiração que afirmava falsamente que Trump estava enfrentando uma conspiração obscura liderada por pedófilos democratas.

Ao final de três semanas, o feed da conta do Facebook de Carol Smith havia evoluído ainda mais. “Tornou-se um fluxo constante de conteúdo enganoso, polarizador e de baixa qualidade”, escreveu a pesquisadora.

A pesquisadora, que mais tarde realizou experimentos de polarização em uma conta de teste orientada à esquerda, deixou o Facebook em agosto de 2020, mesmo mês em que a empresa reprimiu as páginas e grupos do QAnon.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha 'a responsabilidade de proteger nossa democracia' Foto: Mandel Ngan/AFP

Em sua nota de saída, que foi revisada pelo The Times e anteriormente reportada pelo BuzzFeed News, a pesquisadora afirmou que o Facebook estava "conscientemente expondo os usuários a riscos de danos à integridade" e citou a lentidão da empresa em agir contra o QAnon como um motivo para sua saída.

Dia da Eleição

Durante meses, a empresa refinou medidas de emergência conhecidas como planos de “quebra de vidros” - como desacelerar a formação de novos grupos no Facebook - no caso de um resultado contestado. O Facebook também contratou dezenas de milhares de funcionários para proteger o site para a eleição, consultou especialistas jurídicos e políticos e ampliou as parcerias com organizações de verificação de fatos.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha “a responsabilidade de proteger nossa democracia”. Ele destacou uma campanha de registro de eleitores que o Facebook financiou e descreveu as medidas que a empresa havia tomado -- como remover informações incorretas e bloquear anúncios políticos -- para "reduzir as chances de violência e agitação".

Muitas medidas pareceram ajudar. O dia da eleição veio e passou sem grandes contratempos no Facebook.

Mas depois que a contagem de votos mostrou uma disputa acirrada entre Trump e Joe Biden, então candidato democrata à presidência, Trump postou na madrugada de 4 de novembro no Facebook e no Twitter: “Eles estão tentando ROUBAR a eleição."

Os documentos internos mostram que os usuários encontraram no Facebook maneiras de minar a confiança no voto.

Em 5 de novembro, um funcionário do Facebook postou uma mensagem em um grupo interno chamado “Feedback do feed de notícias”. Em sua nota, ele disse aos colegas que informações mentirosas sobre os votos eram visíveis na seção de comentários das postagens. Pior ainda, disse o funcionário, os comentários mais incendiários estavam sendo amplificados para aparecer no topo das sequências de comentários, espalhando informações imprecisas.

Então, em 9 de novembro, um cientista de dados do Facebook disse a vários colegas em uma postagem interna que a quantidade de conteúdo na rede social lançando dúvidas sobre os resultados da eleição havia disparado. Até uma em cada 50 visualizações no Facebook nos Estados Unidos, ou 10% de todas as visualizações de material político, era de conteúdo declarando o voto fraudulento, escreveu o pesquisador.

“Havia também uma margem de incitamento à violência”, escreveu ele no post.

Mesmo assim, o Facebook começou a relaxar suas medidas de emergência em novembro, disseram três ex-funcionários. O período crítico pós-eleitoral parece ter passado e a empresa teme que algumas medidas pré-eleitorais, como a redução do alcance de páginas marginais dedireita, levem a reclamações dos usuários, disseram.

6 de janeiro

Na manhã de 6 de janeiro, com os manifestantes reunidos perto do prédio do Capitólio em Washington, alguns funcionários do Facebook consultaram uma planilha. Lá, eles começaram a catalogar as medidas que a empresa estava tomando contra a desinformação eleitoral e o conteúdo inflamatório em sua plataforma.

As reclamações dos usuários sobre postagens que incitaram a violência dispararam naquela manhã, de acordo com dados da planilha.

Ao longo daquele dia, quando uma multidão invadiu o Capitólio, os funcionários atualizaram a planilha com as ações que estavam sendo tomadas, disse um trabalhador envolvido no esforço. Das dezenas de etapas que os funcionários do Facebook recomendaram, algumas -- como permitir que os engenheiros da empresa excluam em massa postagens que estavam sendo denunciadas por promover violência -- foram implementadas.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas Foto: Olivier Douliery/AFP

Mas outras medidas, como evitar que grupos mudem seus nomes para termos como Stop the Steal, não foram totalmente implementadas por causa de falhas tecnológicas de última hora, de acordo com a planilha.

Zuckerberg e Mike Schroepfer, diretor de tecnologia do Facebook, postaram notas internas expressando tristeza com o motim no Capitólio. Mas alguns funcionários do Facebook responderam com raiva, de acordo com mensagens vistas pelo The Times.

“Eu gostaria de sentir o contrário, mas simplesmente não é suficiente dizer que estamos nos adaptando, porque já deveríamos ter nos adaptado há muito tempo”, escreveu um funcionário. “Havia dezenas de grupos Stop the Steal ativos até ontem, e eu duvido que eles mediram palavras sobre suas intenções.”

Outro escreveu: “Sempre achei que, no geral, meu trabalho foi significativo e útil para o mundo. Mas, honestamente, este é um dia muito sombrio para mim”.

Em um relatório de 7 de janeiro, ficou claro o escopo do que ocorrera no Facebook. O número de relatos de conteúdos que potencialmente violaram as políticas da empresa foi sete vezes maior do que nas semanas anteriores, disse o relatório. Vários dos posts, descobriram os pesquisadores, “sugeriram a derrubada do governo” ou “expressaram apoio à violência”.

Post-mortem

Em março, pesquisadores do Facebook publicaram dois relatórios internos avaliando o papel da empresa nos movimentos sociais que impulsionaram as mentiras da fraude eleitoral.

Em um deles, um grupo de funcionários disse que o Facebook exibiu “o padrão”. Isso envolveu a empresa inicialmente tomar “ação limitada ou nenhuma” contra o QAnon e outros movimentos de deslegitimação eleitoral, apenas para agir e remover esse conteúdo quando eles já tivessem ganhado força. O documento foi publicado anteriormente pelo The Wall Street Journal.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas. Como resultado, as postagens que “poderiam ser interpretadas como dúvidas razoáveis ​​sobre os processos eleitorais” não foram removidas porque não violavam essas regras.

Essas postagens criaram um ambiente que contribuiu para a instabilidade social, disse o relatório.

Outro relatório, intitulado "Stop the Steal e o Partido Patriota: Crescimento e Mitigação de um Movimento Adversarial Nocivo", descreveu como as pessoas exploraram o recurso de grupos do Facebook para formar rapidamente comunidades de deslegitimação eleitoral no site antes de 6 de janeiro.

Alguns organizadores enviaram centenas de convites para criar os grupos, em moldes de spam, descobriu o relatório. Eles também pediram a todos os participantes que convidassem o máximo de pessoas possível, fazendo com que os grupos aumentassem de tamanho. 

Alguns organizadores dos grupos Stop the Steal no Facebook também pareciam estar cooperando uns com os outros para “fazer o movimento crescer”, disse o relatório.

“A retrospectiva torna ainda mais importante olhar para trás, para aprender o que pudermos sobre o crescimento dos movimentos eleitorais deslegitimadores que cresceram, espalharam conspiração e ajudaram a incitar a insurreição do Capitólio”, disse o relatório.

Dezesseis meses antes da eleição presidencial americana, em novembro passado, uma pesquisadora do Facebook descreveu um cenário alarmante. Ela estava recebendo conteúdo conspiratório do grupo QAnon uma semana após abrir uma conta de testes, o que contou em um relatório interno.

Em 5 de novembro, dois dias após a eleição, outro funcionário do Facebook postou uma mensagem alertando os colegas de que comentários com “informações inflamáveis sobre as eleições” eram visíveis abaixo de muitas postagens.

Quatro dias depois, um cientista de dados da empresa escreveu em uma nota a seus colegas de trabalho que 10% de todas as visualizações dos EUA sobre material político -- um número surpreendentemente alto -- eram de postagens que alegavam que a votação era fraudulenta.

Os alarmes vieram acompanhados de pedidos de ação, mas a empresa falhou em resolver os problemas. Os despachos internos fazem parte de um conjunto de documentos do Facebook obtidos pelo The New York Times que fornecem uma nova visão sobre o que aconteceu dentro da rede social antes e depois das eleições de novembro.

Publicamente, o Facebook culpou o ex-presidente Donald Trump e outras plataformas sociais pela proliferação de fake news eleitorais. Em meados de janeiro, Sheryl Sandberg, chefe de operações do Facebook, disse que a rebelião de 6 de janeiro no Capitólio foi "amplamente organizada em plataformas que não têm nossa capacidade de deter o ódio". Mark Zuckerberg, presidente-executivo do Facebook, disse aos legisladores americanos em março que a empresa "fez sua parte para garantir a integridade de nossa eleição".

Mas os documentos da empresa mostram até que ponto o Facebook sabia sobre movimentos e grupos extremistas em sua plataforma. Eles também fornecem novos detalhes sobre o quão cientes os pesquisadores da empresa estavam, após a eleição, do fluxo de desinformação que dizia que a contagem de votos havia sido fraudada.

O que os documentos não oferecem é um quadro completo da tomada de decisões dentro do Facebook. Alguns estudos internos sugeriram que a empresa teve dificuldades em exercer controle sobre a escala de sua rede e a rapidez com que as informações se espalharam, enquanto outros relatórios sugeriram que o Facebook estava preocupado em perder o engajamento ou prejudicar sua reputação.

No entanto, o que é inegável é que os próprios funcionários do Facebook acreditavam que a rede social poderia ter feito mais para barrar esse fluxo, de acordo com os documentos.

“A fiscalização foi fragmentada”, dizia uma análise interna de março sobre a resposta do Facebook aos grupos Stop the Steal, que alegava que a eleição foi fraudada contra Trump. Os autores do relatório disseram que esperavam que o relatório pudesse ser um guia de como o Facebook poderia "fazer melhor da próxima vez".

Muitas das dezenas de documentos do Facebook revisados ​​pelo The Times não foram publicados anteriormente. Alguns dos relatórios internos foram obtidos inicialmente por Frances Haugen, uma ex-gerente de produto do Facebook que fez denúncias contra a empresa.

Documentos internos mostram que Facebook sabia de desinformação na eleição americana de 2020 Foto: Jonathan Ernst/REUTERS

Os documentos de Haugen, alguns dos quais publicados pelo The Wall Street Journal, geraram protestos entre legisladores e reguladores, mergulhando o Facebook em uma de suas piores crises de relações públicas em anos. As revelações de Haugen, que planeja comparecer a uma audiência no Parlamento britânico nesta segunda-feira, 25, trouxeram de volta questões sobre o papel que a empresa desempenhou nos eventos que levaram ao motim no Capitólio, em 6 de janeiro.

Yaël Eisenstat, uma ex-funcionária do Facebook que supervisionava a proteção e a segurança em anúncios de eleições no mundo todos, disse que a pesquisa da empresa mostrou que ela havia tentado examinar suas responsabilidades em torno das eleições de 2020. Mas “se nada mudar”, disse ela, tudo terá sido um desperdício. “Eles deveriam estar tentando entender se a maneira como projetaram o produto é o problema”, afirmou.

Andy Stone, um porta-voz do Facebook, disse que a empresa estava “orgulhosa” do trabalho que fez para “proteger” as eleições de 2020. Ele disse que o Facebook trabalhou com agentes de aplicação da lei, implementou medidas de segurança e monitorou de perto o que estava acontecendo em sua plataforma.

“As medidas de que precisávamos permaneceram em vigor até fevereiro e algumas, como não recomendar novos grupos cívicos ou políticos, permanecem em vigor até hoje”, disse ele. “A responsabilidade pela violência ocorrida em 6 de janeiro é daqueles que atacaram nosso Capitólio e daqueles que os encorajaram.”

Uma Jornada QAnon

Durante anos, os funcionários do Facebook alertaram sobre o potencial da rede social para radicalizar os usuários, de acordo com os documentos.

Em julho de 2019, uma pesquisadora de uma empresa que estudava a polarização fez uma descoberta surpreendente: uma conta de teste que ela criou simulando uma “mãe conservadora” da Carolina do Norte recebeu recomendações de conteúdo de teoria da conspiração uma semana após sua fundação.

A pesquisa interna, intitulada "Jornada de Carol para QAnon", detalhou como a conta do Facebook para uma mulher imaginária chamada Carol Smith tinha seguido as páginas da Fox News e da Sinclair Broadcasting. Em poucos dias, o Facebook recomendou páginas e grupos relacionados ao QAnon, a teoria da conspiração que afirmava falsamente que Trump estava enfrentando uma conspiração obscura liderada por pedófilos democratas.

Ao final de três semanas, o feed da conta do Facebook de Carol Smith havia evoluído ainda mais. “Tornou-se um fluxo constante de conteúdo enganoso, polarizador e de baixa qualidade”, escreveu a pesquisadora.

A pesquisadora, que mais tarde realizou experimentos de polarização em uma conta de teste orientada à esquerda, deixou o Facebook em agosto de 2020, mesmo mês em que a empresa reprimiu as páginas e grupos do QAnon.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha 'a responsabilidade de proteger nossa democracia' Foto: Mandel Ngan/AFP

Em sua nota de saída, que foi revisada pelo The Times e anteriormente reportada pelo BuzzFeed News, a pesquisadora afirmou que o Facebook estava "conscientemente expondo os usuários a riscos de danos à integridade" e citou a lentidão da empresa em agir contra o QAnon como um motivo para sua saída.

Dia da Eleição

Durante meses, a empresa refinou medidas de emergência conhecidas como planos de “quebra de vidros” - como desacelerar a formação de novos grupos no Facebook - no caso de um resultado contestado. O Facebook também contratou dezenas de milhares de funcionários para proteger o site para a eleição, consultou especialistas jurídicos e políticos e ampliou as parcerias com organizações de verificação de fatos.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha “a responsabilidade de proteger nossa democracia”. Ele destacou uma campanha de registro de eleitores que o Facebook financiou e descreveu as medidas que a empresa havia tomado -- como remover informações incorretas e bloquear anúncios políticos -- para "reduzir as chances de violência e agitação".

Muitas medidas pareceram ajudar. O dia da eleição veio e passou sem grandes contratempos no Facebook.

Mas depois que a contagem de votos mostrou uma disputa acirrada entre Trump e Joe Biden, então candidato democrata à presidência, Trump postou na madrugada de 4 de novembro no Facebook e no Twitter: “Eles estão tentando ROUBAR a eleição."

Os documentos internos mostram que os usuários encontraram no Facebook maneiras de minar a confiança no voto.

Em 5 de novembro, um funcionário do Facebook postou uma mensagem em um grupo interno chamado “Feedback do feed de notícias”. Em sua nota, ele disse aos colegas que informações mentirosas sobre os votos eram visíveis na seção de comentários das postagens. Pior ainda, disse o funcionário, os comentários mais incendiários estavam sendo amplificados para aparecer no topo das sequências de comentários, espalhando informações imprecisas.

Então, em 9 de novembro, um cientista de dados do Facebook disse a vários colegas em uma postagem interna que a quantidade de conteúdo na rede social lançando dúvidas sobre os resultados da eleição havia disparado. Até uma em cada 50 visualizações no Facebook nos Estados Unidos, ou 10% de todas as visualizações de material político, era de conteúdo declarando o voto fraudulento, escreveu o pesquisador.

“Havia também uma margem de incitamento à violência”, escreveu ele no post.

Mesmo assim, o Facebook começou a relaxar suas medidas de emergência em novembro, disseram três ex-funcionários. O período crítico pós-eleitoral parece ter passado e a empresa teme que algumas medidas pré-eleitorais, como a redução do alcance de páginas marginais dedireita, levem a reclamações dos usuários, disseram.

6 de janeiro

Na manhã de 6 de janeiro, com os manifestantes reunidos perto do prédio do Capitólio em Washington, alguns funcionários do Facebook consultaram uma planilha. Lá, eles começaram a catalogar as medidas que a empresa estava tomando contra a desinformação eleitoral e o conteúdo inflamatório em sua plataforma.

As reclamações dos usuários sobre postagens que incitaram a violência dispararam naquela manhã, de acordo com dados da planilha.

Ao longo daquele dia, quando uma multidão invadiu o Capitólio, os funcionários atualizaram a planilha com as ações que estavam sendo tomadas, disse um trabalhador envolvido no esforço. Das dezenas de etapas que os funcionários do Facebook recomendaram, algumas -- como permitir que os engenheiros da empresa excluam em massa postagens que estavam sendo denunciadas por promover violência -- foram implementadas.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas Foto: Olivier Douliery/AFP

Mas outras medidas, como evitar que grupos mudem seus nomes para termos como Stop the Steal, não foram totalmente implementadas por causa de falhas tecnológicas de última hora, de acordo com a planilha.

Zuckerberg e Mike Schroepfer, diretor de tecnologia do Facebook, postaram notas internas expressando tristeza com o motim no Capitólio. Mas alguns funcionários do Facebook responderam com raiva, de acordo com mensagens vistas pelo The Times.

“Eu gostaria de sentir o contrário, mas simplesmente não é suficiente dizer que estamos nos adaptando, porque já deveríamos ter nos adaptado há muito tempo”, escreveu um funcionário. “Havia dezenas de grupos Stop the Steal ativos até ontem, e eu duvido que eles mediram palavras sobre suas intenções.”

Outro escreveu: “Sempre achei que, no geral, meu trabalho foi significativo e útil para o mundo. Mas, honestamente, este é um dia muito sombrio para mim”.

Em um relatório de 7 de janeiro, ficou claro o escopo do que ocorrera no Facebook. O número de relatos de conteúdos que potencialmente violaram as políticas da empresa foi sete vezes maior do que nas semanas anteriores, disse o relatório. Vários dos posts, descobriram os pesquisadores, “sugeriram a derrubada do governo” ou “expressaram apoio à violência”.

Post-mortem

Em março, pesquisadores do Facebook publicaram dois relatórios internos avaliando o papel da empresa nos movimentos sociais que impulsionaram as mentiras da fraude eleitoral.

Em um deles, um grupo de funcionários disse que o Facebook exibiu “o padrão”. Isso envolveu a empresa inicialmente tomar “ação limitada ou nenhuma” contra o QAnon e outros movimentos de deslegitimação eleitoral, apenas para agir e remover esse conteúdo quando eles já tivessem ganhado força. O documento foi publicado anteriormente pelo The Wall Street Journal.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas. Como resultado, as postagens que “poderiam ser interpretadas como dúvidas razoáveis ​​sobre os processos eleitorais” não foram removidas porque não violavam essas regras.

Essas postagens criaram um ambiente que contribuiu para a instabilidade social, disse o relatório.

Outro relatório, intitulado "Stop the Steal e o Partido Patriota: Crescimento e Mitigação de um Movimento Adversarial Nocivo", descreveu como as pessoas exploraram o recurso de grupos do Facebook para formar rapidamente comunidades de deslegitimação eleitoral no site antes de 6 de janeiro.

Alguns organizadores enviaram centenas de convites para criar os grupos, em moldes de spam, descobriu o relatório. Eles também pediram a todos os participantes que convidassem o máximo de pessoas possível, fazendo com que os grupos aumentassem de tamanho. 

Alguns organizadores dos grupos Stop the Steal no Facebook também pareciam estar cooperando uns com os outros para “fazer o movimento crescer”, disse o relatório.

“A retrospectiva torna ainda mais importante olhar para trás, para aprender o que pudermos sobre o crescimento dos movimentos eleitorais deslegitimadores que cresceram, espalharam conspiração e ajudaram a incitar a insurreição do Capitólio”, disse o relatório.

Dezesseis meses antes da eleição presidencial americana, em novembro passado, uma pesquisadora do Facebook descreveu um cenário alarmante. Ela estava recebendo conteúdo conspiratório do grupo QAnon uma semana após abrir uma conta de testes, o que contou em um relatório interno.

Em 5 de novembro, dois dias após a eleição, outro funcionário do Facebook postou uma mensagem alertando os colegas de que comentários com “informações inflamáveis sobre as eleições” eram visíveis abaixo de muitas postagens.

Quatro dias depois, um cientista de dados da empresa escreveu em uma nota a seus colegas de trabalho que 10% de todas as visualizações dos EUA sobre material político -- um número surpreendentemente alto -- eram de postagens que alegavam que a votação era fraudulenta.

Os alarmes vieram acompanhados de pedidos de ação, mas a empresa falhou em resolver os problemas. Os despachos internos fazem parte de um conjunto de documentos do Facebook obtidos pelo The New York Times que fornecem uma nova visão sobre o que aconteceu dentro da rede social antes e depois das eleições de novembro.

Publicamente, o Facebook culpou o ex-presidente Donald Trump e outras plataformas sociais pela proliferação de fake news eleitorais. Em meados de janeiro, Sheryl Sandberg, chefe de operações do Facebook, disse que a rebelião de 6 de janeiro no Capitólio foi "amplamente organizada em plataformas que não têm nossa capacidade de deter o ódio". Mark Zuckerberg, presidente-executivo do Facebook, disse aos legisladores americanos em março que a empresa "fez sua parte para garantir a integridade de nossa eleição".

Mas os documentos da empresa mostram até que ponto o Facebook sabia sobre movimentos e grupos extremistas em sua plataforma. Eles também fornecem novos detalhes sobre o quão cientes os pesquisadores da empresa estavam, após a eleição, do fluxo de desinformação que dizia que a contagem de votos havia sido fraudada.

O que os documentos não oferecem é um quadro completo da tomada de decisões dentro do Facebook. Alguns estudos internos sugeriram que a empresa teve dificuldades em exercer controle sobre a escala de sua rede e a rapidez com que as informações se espalharam, enquanto outros relatórios sugeriram que o Facebook estava preocupado em perder o engajamento ou prejudicar sua reputação.

No entanto, o que é inegável é que os próprios funcionários do Facebook acreditavam que a rede social poderia ter feito mais para barrar esse fluxo, de acordo com os documentos.

“A fiscalização foi fragmentada”, dizia uma análise interna de março sobre a resposta do Facebook aos grupos Stop the Steal, que alegava que a eleição foi fraudada contra Trump. Os autores do relatório disseram que esperavam que o relatório pudesse ser um guia de como o Facebook poderia "fazer melhor da próxima vez".

Muitas das dezenas de documentos do Facebook revisados ​​pelo The Times não foram publicados anteriormente. Alguns dos relatórios internos foram obtidos inicialmente por Frances Haugen, uma ex-gerente de produto do Facebook que fez denúncias contra a empresa.

Documentos internos mostram que Facebook sabia de desinformação na eleição americana de 2020 Foto: Jonathan Ernst/REUTERS

Os documentos de Haugen, alguns dos quais publicados pelo The Wall Street Journal, geraram protestos entre legisladores e reguladores, mergulhando o Facebook em uma de suas piores crises de relações públicas em anos. As revelações de Haugen, que planeja comparecer a uma audiência no Parlamento britânico nesta segunda-feira, 25, trouxeram de volta questões sobre o papel que a empresa desempenhou nos eventos que levaram ao motim no Capitólio, em 6 de janeiro.

Yaël Eisenstat, uma ex-funcionária do Facebook que supervisionava a proteção e a segurança em anúncios de eleições no mundo todos, disse que a pesquisa da empresa mostrou que ela havia tentado examinar suas responsabilidades em torno das eleições de 2020. Mas “se nada mudar”, disse ela, tudo terá sido um desperdício. “Eles deveriam estar tentando entender se a maneira como projetaram o produto é o problema”, afirmou.

Andy Stone, um porta-voz do Facebook, disse que a empresa estava “orgulhosa” do trabalho que fez para “proteger” as eleições de 2020. Ele disse que o Facebook trabalhou com agentes de aplicação da lei, implementou medidas de segurança e monitorou de perto o que estava acontecendo em sua plataforma.

“As medidas de que precisávamos permaneceram em vigor até fevereiro e algumas, como não recomendar novos grupos cívicos ou políticos, permanecem em vigor até hoje”, disse ele. “A responsabilidade pela violência ocorrida em 6 de janeiro é daqueles que atacaram nosso Capitólio e daqueles que os encorajaram.”

Uma Jornada QAnon

Durante anos, os funcionários do Facebook alertaram sobre o potencial da rede social para radicalizar os usuários, de acordo com os documentos.

Em julho de 2019, uma pesquisadora de uma empresa que estudava a polarização fez uma descoberta surpreendente: uma conta de teste que ela criou simulando uma “mãe conservadora” da Carolina do Norte recebeu recomendações de conteúdo de teoria da conspiração uma semana após sua fundação.

A pesquisa interna, intitulada "Jornada de Carol para QAnon", detalhou como a conta do Facebook para uma mulher imaginária chamada Carol Smith tinha seguido as páginas da Fox News e da Sinclair Broadcasting. Em poucos dias, o Facebook recomendou páginas e grupos relacionados ao QAnon, a teoria da conspiração que afirmava falsamente que Trump estava enfrentando uma conspiração obscura liderada por pedófilos democratas.

Ao final de três semanas, o feed da conta do Facebook de Carol Smith havia evoluído ainda mais. “Tornou-se um fluxo constante de conteúdo enganoso, polarizador e de baixa qualidade”, escreveu a pesquisadora.

A pesquisadora, que mais tarde realizou experimentos de polarização em uma conta de teste orientada à esquerda, deixou o Facebook em agosto de 2020, mesmo mês em que a empresa reprimiu as páginas e grupos do QAnon.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha 'a responsabilidade de proteger nossa democracia' Foto: Mandel Ngan/AFP

Em sua nota de saída, que foi revisada pelo The Times e anteriormente reportada pelo BuzzFeed News, a pesquisadora afirmou que o Facebook estava "conscientemente expondo os usuários a riscos de danos à integridade" e citou a lentidão da empresa em agir contra o QAnon como um motivo para sua saída.

Dia da Eleição

Durante meses, a empresa refinou medidas de emergência conhecidas como planos de “quebra de vidros” - como desacelerar a formação de novos grupos no Facebook - no caso de um resultado contestado. O Facebook também contratou dezenas de milhares de funcionários para proteger o site para a eleição, consultou especialistas jurídicos e políticos e ampliou as parcerias com organizações de verificação de fatos.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha “a responsabilidade de proteger nossa democracia”. Ele destacou uma campanha de registro de eleitores que o Facebook financiou e descreveu as medidas que a empresa havia tomado -- como remover informações incorretas e bloquear anúncios políticos -- para "reduzir as chances de violência e agitação".

Muitas medidas pareceram ajudar. O dia da eleição veio e passou sem grandes contratempos no Facebook.

Mas depois que a contagem de votos mostrou uma disputa acirrada entre Trump e Joe Biden, então candidato democrata à presidência, Trump postou na madrugada de 4 de novembro no Facebook e no Twitter: “Eles estão tentando ROUBAR a eleição."

Os documentos internos mostram que os usuários encontraram no Facebook maneiras de minar a confiança no voto.

Em 5 de novembro, um funcionário do Facebook postou uma mensagem em um grupo interno chamado “Feedback do feed de notícias”. Em sua nota, ele disse aos colegas que informações mentirosas sobre os votos eram visíveis na seção de comentários das postagens. Pior ainda, disse o funcionário, os comentários mais incendiários estavam sendo amplificados para aparecer no topo das sequências de comentários, espalhando informações imprecisas.

Então, em 9 de novembro, um cientista de dados do Facebook disse a vários colegas em uma postagem interna que a quantidade de conteúdo na rede social lançando dúvidas sobre os resultados da eleição havia disparado. Até uma em cada 50 visualizações no Facebook nos Estados Unidos, ou 10% de todas as visualizações de material político, era de conteúdo declarando o voto fraudulento, escreveu o pesquisador.

“Havia também uma margem de incitamento à violência”, escreveu ele no post.

Mesmo assim, o Facebook começou a relaxar suas medidas de emergência em novembro, disseram três ex-funcionários. O período crítico pós-eleitoral parece ter passado e a empresa teme que algumas medidas pré-eleitorais, como a redução do alcance de páginas marginais dedireita, levem a reclamações dos usuários, disseram.

6 de janeiro

Na manhã de 6 de janeiro, com os manifestantes reunidos perto do prédio do Capitólio em Washington, alguns funcionários do Facebook consultaram uma planilha. Lá, eles começaram a catalogar as medidas que a empresa estava tomando contra a desinformação eleitoral e o conteúdo inflamatório em sua plataforma.

As reclamações dos usuários sobre postagens que incitaram a violência dispararam naquela manhã, de acordo com dados da planilha.

Ao longo daquele dia, quando uma multidão invadiu o Capitólio, os funcionários atualizaram a planilha com as ações que estavam sendo tomadas, disse um trabalhador envolvido no esforço. Das dezenas de etapas que os funcionários do Facebook recomendaram, algumas -- como permitir que os engenheiros da empresa excluam em massa postagens que estavam sendo denunciadas por promover violência -- foram implementadas.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas Foto: Olivier Douliery/AFP

Mas outras medidas, como evitar que grupos mudem seus nomes para termos como Stop the Steal, não foram totalmente implementadas por causa de falhas tecnológicas de última hora, de acordo com a planilha.

Zuckerberg e Mike Schroepfer, diretor de tecnologia do Facebook, postaram notas internas expressando tristeza com o motim no Capitólio. Mas alguns funcionários do Facebook responderam com raiva, de acordo com mensagens vistas pelo The Times.

“Eu gostaria de sentir o contrário, mas simplesmente não é suficiente dizer que estamos nos adaptando, porque já deveríamos ter nos adaptado há muito tempo”, escreveu um funcionário. “Havia dezenas de grupos Stop the Steal ativos até ontem, e eu duvido que eles mediram palavras sobre suas intenções.”

Outro escreveu: “Sempre achei que, no geral, meu trabalho foi significativo e útil para o mundo. Mas, honestamente, este é um dia muito sombrio para mim”.

Em um relatório de 7 de janeiro, ficou claro o escopo do que ocorrera no Facebook. O número de relatos de conteúdos que potencialmente violaram as políticas da empresa foi sete vezes maior do que nas semanas anteriores, disse o relatório. Vários dos posts, descobriram os pesquisadores, “sugeriram a derrubada do governo” ou “expressaram apoio à violência”.

Post-mortem

Em março, pesquisadores do Facebook publicaram dois relatórios internos avaliando o papel da empresa nos movimentos sociais que impulsionaram as mentiras da fraude eleitoral.

Em um deles, um grupo de funcionários disse que o Facebook exibiu “o padrão”. Isso envolveu a empresa inicialmente tomar “ação limitada ou nenhuma” contra o QAnon e outros movimentos de deslegitimação eleitoral, apenas para agir e remover esse conteúdo quando eles já tivessem ganhado força. O documento foi publicado anteriormente pelo The Wall Street Journal.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas. Como resultado, as postagens que “poderiam ser interpretadas como dúvidas razoáveis ​​sobre os processos eleitorais” não foram removidas porque não violavam essas regras.

Essas postagens criaram um ambiente que contribuiu para a instabilidade social, disse o relatório.

Outro relatório, intitulado "Stop the Steal e o Partido Patriota: Crescimento e Mitigação de um Movimento Adversarial Nocivo", descreveu como as pessoas exploraram o recurso de grupos do Facebook para formar rapidamente comunidades de deslegitimação eleitoral no site antes de 6 de janeiro.

Alguns organizadores enviaram centenas de convites para criar os grupos, em moldes de spam, descobriu o relatório. Eles também pediram a todos os participantes que convidassem o máximo de pessoas possível, fazendo com que os grupos aumentassem de tamanho. 

Alguns organizadores dos grupos Stop the Steal no Facebook também pareciam estar cooperando uns com os outros para “fazer o movimento crescer”, disse o relatório.

“A retrospectiva torna ainda mais importante olhar para trás, para aprender o que pudermos sobre o crescimento dos movimentos eleitorais deslegitimadores que cresceram, espalharam conspiração e ajudaram a incitar a insurreição do Capitólio”, disse o relatório.

Dezesseis meses antes da eleição presidencial americana, em novembro passado, uma pesquisadora do Facebook descreveu um cenário alarmante. Ela estava recebendo conteúdo conspiratório do grupo QAnon uma semana após abrir uma conta de testes, o que contou em um relatório interno.

Em 5 de novembro, dois dias após a eleição, outro funcionário do Facebook postou uma mensagem alertando os colegas de que comentários com “informações inflamáveis sobre as eleições” eram visíveis abaixo de muitas postagens.

Quatro dias depois, um cientista de dados da empresa escreveu em uma nota a seus colegas de trabalho que 10% de todas as visualizações dos EUA sobre material político -- um número surpreendentemente alto -- eram de postagens que alegavam que a votação era fraudulenta.

Os alarmes vieram acompanhados de pedidos de ação, mas a empresa falhou em resolver os problemas. Os despachos internos fazem parte de um conjunto de documentos do Facebook obtidos pelo The New York Times que fornecem uma nova visão sobre o que aconteceu dentro da rede social antes e depois das eleições de novembro.

Publicamente, o Facebook culpou o ex-presidente Donald Trump e outras plataformas sociais pela proliferação de fake news eleitorais. Em meados de janeiro, Sheryl Sandberg, chefe de operações do Facebook, disse que a rebelião de 6 de janeiro no Capitólio foi "amplamente organizada em plataformas que não têm nossa capacidade de deter o ódio". Mark Zuckerberg, presidente-executivo do Facebook, disse aos legisladores americanos em março que a empresa "fez sua parte para garantir a integridade de nossa eleição".

Mas os documentos da empresa mostram até que ponto o Facebook sabia sobre movimentos e grupos extremistas em sua plataforma. Eles também fornecem novos detalhes sobre o quão cientes os pesquisadores da empresa estavam, após a eleição, do fluxo de desinformação que dizia que a contagem de votos havia sido fraudada.

O que os documentos não oferecem é um quadro completo da tomada de decisões dentro do Facebook. Alguns estudos internos sugeriram que a empresa teve dificuldades em exercer controle sobre a escala de sua rede e a rapidez com que as informações se espalharam, enquanto outros relatórios sugeriram que o Facebook estava preocupado em perder o engajamento ou prejudicar sua reputação.

No entanto, o que é inegável é que os próprios funcionários do Facebook acreditavam que a rede social poderia ter feito mais para barrar esse fluxo, de acordo com os documentos.

“A fiscalização foi fragmentada”, dizia uma análise interna de março sobre a resposta do Facebook aos grupos Stop the Steal, que alegava que a eleição foi fraudada contra Trump. Os autores do relatório disseram que esperavam que o relatório pudesse ser um guia de como o Facebook poderia "fazer melhor da próxima vez".

Muitas das dezenas de documentos do Facebook revisados ​​pelo The Times não foram publicados anteriormente. Alguns dos relatórios internos foram obtidos inicialmente por Frances Haugen, uma ex-gerente de produto do Facebook que fez denúncias contra a empresa.

Documentos internos mostram que Facebook sabia de desinformação na eleição americana de 2020 Foto: Jonathan Ernst/REUTERS

Os documentos de Haugen, alguns dos quais publicados pelo The Wall Street Journal, geraram protestos entre legisladores e reguladores, mergulhando o Facebook em uma de suas piores crises de relações públicas em anos. As revelações de Haugen, que planeja comparecer a uma audiência no Parlamento britânico nesta segunda-feira, 25, trouxeram de volta questões sobre o papel que a empresa desempenhou nos eventos que levaram ao motim no Capitólio, em 6 de janeiro.

Yaël Eisenstat, uma ex-funcionária do Facebook que supervisionava a proteção e a segurança em anúncios de eleições no mundo todos, disse que a pesquisa da empresa mostrou que ela havia tentado examinar suas responsabilidades em torno das eleições de 2020. Mas “se nada mudar”, disse ela, tudo terá sido um desperdício. “Eles deveriam estar tentando entender se a maneira como projetaram o produto é o problema”, afirmou.

Andy Stone, um porta-voz do Facebook, disse que a empresa estava “orgulhosa” do trabalho que fez para “proteger” as eleições de 2020. Ele disse que o Facebook trabalhou com agentes de aplicação da lei, implementou medidas de segurança e monitorou de perto o que estava acontecendo em sua plataforma.

“As medidas de que precisávamos permaneceram em vigor até fevereiro e algumas, como não recomendar novos grupos cívicos ou políticos, permanecem em vigor até hoje”, disse ele. “A responsabilidade pela violência ocorrida em 6 de janeiro é daqueles que atacaram nosso Capitólio e daqueles que os encorajaram.”

Uma Jornada QAnon

Durante anos, os funcionários do Facebook alertaram sobre o potencial da rede social para radicalizar os usuários, de acordo com os documentos.

Em julho de 2019, uma pesquisadora de uma empresa que estudava a polarização fez uma descoberta surpreendente: uma conta de teste que ela criou simulando uma “mãe conservadora” da Carolina do Norte recebeu recomendações de conteúdo de teoria da conspiração uma semana após sua fundação.

A pesquisa interna, intitulada "Jornada de Carol para QAnon", detalhou como a conta do Facebook para uma mulher imaginária chamada Carol Smith tinha seguido as páginas da Fox News e da Sinclair Broadcasting. Em poucos dias, o Facebook recomendou páginas e grupos relacionados ao QAnon, a teoria da conspiração que afirmava falsamente que Trump estava enfrentando uma conspiração obscura liderada por pedófilos democratas.

Ao final de três semanas, o feed da conta do Facebook de Carol Smith havia evoluído ainda mais. “Tornou-se um fluxo constante de conteúdo enganoso, polarizador e de baixa qualidade”, escreveu a pesquisadora.

A pesquisadora, que mais tarde realizou experimentos de polarização em uma conta de teste orientada à esquerda, deixou o Facebook em agosto de 2020, mesmo mês em que a empresa reprimiu as páginas e grupos do QAnon.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha 'a responsabilidade de proteger nossa democracia' Foto: Mandel Ngan/AFP

Em sua nota de saída, que foi revisada pelo The Times e anteriormente reportada pelo BuzzFeed News, a pesquisadora afirmou que o Facebook estava "conscientemente expondo os usuários a riscos de danos à integridade" e citou a lentidão da empresa em agir contra o QAnon como um motivo para sua saída.

Dia da Eleição

Durante meses, a empresa refinou medidas de emergência conhecidas como planos de “quebra de vidros” - como desacelerar a formação de novos grupos no Facebook - no caso de um resultado contestado. O Facebook também contratou dezenas de milhares de funcionários para proteger o site para a eleição, consultou especialistas jurídicos e políticos e ampliou as parcerias com organizações de verificação de fatos.

Em uma postagem pública de setembro de 2020, o fundador do Facebook, Mark Zuckerberg, escreveu que sua empresa tinha “a responsabilidade de proteger nossa democracia”. Ele destacou uma campanha de registro de eleitores que o Facebook financiou e descreveu as medidas que a empresa havia tomado -- como remover informações incorretas e bloquear anúncios políticos -- para "reduzir as chances de violência e agitação".

Muitas medidas pareceram ajudar. O dia da eleição veio e passou sem grandes contratempos no Facebook.

Mas depois que a contagem de votos mostrou uma disputa acirrada entre Trump e Joe Biden, então candidato democrata à presidência, Trump postou na madrugada de 4 de novembro no Facebook e no Twitter: “Eles estão tentando ROUBAR a eleição."

Os documentos internos mostram que os usuários encontraram no Facebook maneiras de minar a confiança no voto.

Em 5 de novembro, um funcionário do Facebook postou uma mensagem em um grupo interno chamado “Feedback do feed de notícias”. Em sua nota, ele disse aos colegas que informações mentirosas sobre os votos eram visíveis na seção de comentários das postagens. Pior ainda, disse o funcionário, os comentários mais incendiários estavam sendo amplificados para aparecer no topo das sequências de comentários, espalhando informações imprecisas.

Então, em 9 de novembro, um cientista de dados do Facebook disse a vários colegas em uma postagem interna que a quantidade de conteúdo na rede social lançando dúvidas sobre os resultados da eleição havia disparado. Até uma em cada 50 visualizações no Facebook nos Estados Unidos, ou 10% de todas as visualizações de material político, era de conteúdo declarando o voto fraudulento, escreveu o pesquisador.

“Havia também uma margem de incitamento à violência”, escreveu ele no post.

Mesmo assim, o Facebook começou a relaxar suas medidas de emergência em novembro, disseram três ex-funcionários. O período crítico pós-eleitoral parece ter passado e a empresa teme que algumas medidas pré-eleitorais, como a redução do alcance de páginas marginais dedireita, levem a reclamações dos usuários, disseram.

6 de janeiro

Na manhã de 6 de janeiro, com os manifestantes reunidos perto do prédio do Capitólio em Washington, alguns funcionários do Facebook consultaram uma planilha. Lá, eles começaram a catalogar as medidas que a empresa estava tomando contra a desinformação eleitoral e o conteúdo inflamatório em sua plataforma.

As reclamações dos usuários sobre postagens que incitaram a violência dispararam naquela manhã, de acordo com dados da planilha.

Ao longo daquele dia, quando uma multidão invadiu o Capitólio, os funcionários atualizaram a planilha com as ações que estavam sendo tomadas, disse um trabalhador envolvido no esforço. Das dezenas de etapas que os funcionários do Facebook recomendaram, algumas -- como permitir que os engenheiros da empresa excluam em massa postagens que estavam sendo denunciadas por promover violência -- foram implementadas.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas Foto: Olivier Douliery/AFP

Mas outras medidas, como evitar que grupos mudem seus nomes para termos como Stop the Steal, não foram totalmente implementadas por causa de falhas tecnológicas de última hora, de acordo com a planilha.

Zuckerberg e Mike Schroepfer, diretor de tecnologia do Facebook, postaram notas internas expressando tristeza com o motim no Capitólio. Mas alguns funcionários do Facebook responderam com raiva, de acordo com mensagens vistas pelo The Times.

“Eu gostaria de sentir o contrário, mas simplesmente não é suficiente dizer que estamos nos adaptando, porque já deveríamos ter nos adaptado há muito tempo”, escreveu um funcionário. “Havia dezenas de grupos Stop the Steal ativos até ontem, e eu duvido que eles mediram palavras sobre suas intenções.”

Outro escreveu: “Sempre achei que, no geral, meu trabalho foi significativo e útil para o mundo. Mas, honestamente, este é um dia muito sombrio para mim”.

Em um relatório de 7 de janeiro, ficou claro o escopo do que ocorrera no Facebook. O número de relatos de conteúdos que potencialmente violaram as políticas da empresa foi sete vezes maior do que nas semanas anteriores, disse o relatório. Vários dos posts, descobriram os pesquisadores, “sugeriram a derrubada do governo” ou “expressaram apoio à violência”.

Post-mortem

Em março, pesquisadores do Facebook publicaram dois relatórios internos avaliando o papel da empresa nos movimentos sociais que impulsionaram as mentiras da fraude eleitoral.

Em um deles, um grupo de funcionários disse que o Facebook exibiu “o padrão”. Isso envolveu a empresa inicialmente tomar “ação limitada ou nenhuma” contra o QAnon e outros movimentos de deslegitimação eleitoral, apenas para agir e remover esse conteúdo quando eles já tivessem ganhado força. O documento foi publicado anteriormente pelo The Wall Street Journal.

Parte do problema, escreveram os funcionários, era que as regras de desinformação eleitoral do Facebook deixaram muitas áreas cinzentas. Como resultado, as postagens que “poderiam ser interpretadas como dúvidas razoáveis ​​sobre os processos eleitorais” não foram removidas porque não violavam essas regras.

Essas postagens criaram um ambiente que contribuiu para a instabilidade social, disse o relatório.

Outro relatório, intitulado "Stop the Steal e o Partido Patriota: Crescimento e Mitigação de um Movimento Adversarial Nocivo", descreveu como as pessoas exploraram o recurso de grupos do Facebook para formar rapidamente comunidades de deslegitimação eleitoral no site antes de 6 de janeiro.

Alguns organizadores enviaram centenas de convites para criar os grupos, em moldes de spam, descobriu o relatório. Eles também pediram a todos os participantes que convidassem o máximo de pessoas possível, fazendo com que os grupos aumentassem de tamanho. 

Alguns organizadores dos grupos Stop the Steal no Facebook também pareciam estar cooperando uns com os outros para “fazer o movimento crescer”, disse o relatório.

“A retrospectiva torna ainda mais importante olhar para trás, para aprender o que pudermos sobre o crescimento dos movimentos eleitorais deslegitimadores que cresceram, espalharam conspiração e ajudaram a incitar a insurreição do Capitólio”, disse o relatório.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.