Um dos casos que está na lista de discussão do Comitê de Supervisão do Facebook é brasileiro. Trata-se de uma publicação feita em março por um conselho médico estadual do Brasil, descrevendo medidas para reduzir a propagação da covid-19. A postagem distorce informações para dizer que lockdowns são ineficazes e condenados pela Organização Mundial da Saúde (OMS).
Esse é o segundo episódio brasileiro discutido pelo Comitê, mas o primeiro a lidar com o problema da desinformação. O primeiro caso do País envolveu uma publicação com fotografias que mostravam sintomas de câncer de mama – a postagem, feita em outubro do ano passado, havia sido removida pelo sistema automatizado da rede social.
Para criticar os lockdowns, a publicação do conselho médico estadual inclui uma suposta citação de David Nabarro, da OMS, dizendo que “o lockdown não salva vidas e torna os pobres mais pobres”. É uma declaração enganosa, tirada de contexto: na verdade, a entidade internacional reconhece a importância de lockdowns para frear a transmissão do coronavírus, mas ressalta que a medida tem impacto negativo profundo na economia e não é sustentável a longo prazo. Além disso, a postagem diz que o Estado do Amazonas teve um aumento no número de mortes e hospitalizações após o lockdown, o que supostamente comprovaria a falha das restrições.
Foi o próprio Facebook que enviou o caso ao Comitê. A rede social afirmou que o conteúdo “não viola as políticas do Facebook, mas ainda pode ser lido por algumas pessoas como uma defesa de certas medidas de segurança durante a pandemia”. A empresa também disse que “apesar de a OMS e outros especialistas em saúde terem aconselhado o Facebook a remover ações que criticam práticas de saúde específicas, como o distanciamento social, eles não orientaram o Facebook a remover ações que criticam lockdowns.”
A publicação ainda está disponível na plataforma. Ela foi visualizada cerca de 32 mil vezes e compartilhada mais de 270 vezes – nenhum usuário denunciou o conteúdo.
Para João Pedro Favaretto Salvador, pesquisador do Centro de Ensino e Pesquisa em Inovação da FGV Direito SP, é extremamente positivo que o Facebook tenha enviado esse caso ao Comitê. “Não é fácil responder quais parâmetros que uma rede social internacional tem de usar. O Facebook está se perguntando até que ponto ele precisa remover conteúdo de órgãos de saúde internos de países se eles vão contra a OMS, que é um parâmetro internacional inclusive para a própria rede social”, afirma.
Debate
O prazo para que o Comitê emita uma decisão é, em média, 90 dias – a publicação em questão sobre lockdown foi enviada ao órgão em 2 de junho.
Uma das entidades brasileiras que enviou sua contribuição sobre o caso foi o centro de pesquisa em direito e tecnologia InternetLab. “É uma oportunidade de discutir as políticas do Facebook para autoridades públicas. Se fosse um usuário qualquer dando sua opinião sobre lockdown teria um impacto muito menor, mas as distorções nesse caso são graves porque contam com a credibilidade que a população atribui a um conselho de medicina”, afirma Artur Pericles Monteiro, coordenador de pesquisa de liberdade de expressão do InternetLab.
Em seu documento enviado ao Comitê, que contou também com a colaboração de Bruno Caramelli, professor associado da Faculdade de Medicina da Universidade de São Paulo (USP), o InternetLab defende que a publicação seja marcada como enganosa: “Ainda que não se verifique risco iminente à integridade física a justificar a exclusão ou limitação da visibilidade do conteúdo na rede social, seria apropriado que o Facebook rotulasse o conteúdo como desinformativo, proporcionando informação adequada aos usuários”.
O Centro de Ensino e Pesquisa em Inovação da FGV Direito SP também contribuiu com o caso. O grupo sugeriu ao Comitê que a publicação fosse acompanhada de um contexto adicional, como um link de uma notícia com informações verdadeiras sobre o assunto. “Acreditamos que o Facebook só deve remover as postagens das autoridades de saúde em casos extremos, como teorias da conspiração, propaganda anti-vacina e publicidade de tratamentos falsos”, disse o grupo em sua carta enviada ao Comitê.
Mas há quem acredite que pode ser, sim, um caso de remoção de conteúdo. “Nesse caso em específico acho razoável que a postagem seja removida porque é extremamente problemática – ela tem, no mínimo, frases distorcidas. Entendo que é uma postagem que pode causar danos às pessoas”, afirma Diogo Coutinho, professor da Faculdade de Direito da USP.
A resposta final do Comitê deve ser divulgada nas próximas semanas – e a decisão será uma mensagem importante para o problema de desinformação sobre saúde, que tem afetado o mundo todo.
“O desafio que o Conselho de Supervisão enfrenta é articular um padrão claro para lidar com informações factualmente contestadas sobre uma crise de saúde pública. A quem o Facebook deve recorrer para obter informações confiáveis?”, questiona Paul Barrett, professor da Universidade de Nova York, especialista em redes sociais e política. “O Comitê deve passar a mensagem de que o Facebook tem a responsabilidade de prevenir a desinformação sobre ameaças à saúde de seus usuários e cidadãos em geral”.