Antes da pandemia, a desinformação em redes sociais já era um problema grave. Com a crise sanitária, porém, publicações mentirosas viraram casos de vida ou morte. Foi nesse cenário – e com essa pressão – que o Facebook criou em maio do ano passado um Comitê de Supervisão para decidir o que fica e o que deve sair da plataforma. Desde então, o órgão publicou 11 decisões e tem se mostrado um experimento importante que pode vir a ditar os rumos da moderação de conteúdo na internet.
No atual arranjo, o Comitê é uma espécie de “Supremo Tribunal Federal (STF)” do Facebook para tratar sobre postagens que devem permanecer ou não no Facebook e no Instagram. Quando a remoção de um conteúdo tem potencial para gerar debate e precedente, é o Comitê que toma a decisão final. O Facebook é obrigado a acatá-la mesmo que sua posição inicial tenha sido oposta – o presidente executivo da empresa, Mark Zuckerberg, não pode ignorar o órgão caso ele não goste das soluções propostas. Além disso, o Comitê pode fazer sugestões mais amplas sobre as políticas de conteúdo da rede social.
O Comitê conta hoje com um grupo de 20 pessoas escolhidas pelo Facebook, composto por integrantes da academia e de organizações da sociedade civil especializados em temas de direitos humanos – o painel reúne pessoas de 18 países diferentes e deve chegar a ter 40 membros. Um fundo de investimento independente da companhia financia o projeto, sendo que o Facebook fez uma doação inicial de US$ 130 milhões.
Ao todo, desde dezembro, 16 casos já foram selecionados para discussão, alguns apontados por usuários e outros solicitados pelo próprio Facebook. Tanto as decisões quanto os casos em discussão são publicados no site do Comitê, com detalhamento daquilo que está em debate. Em algumas situações, há um espaço para pessoas e organizações enviarem suas contribuições. Um caso brasileiro, por exemplo, mobilizou neste mês entidades, como centros de pesquisa, para opinarem sobre como o Facebook deveria lidar com uma publicação de um conselho médico estadual do Brasil dizendo que lockdowns são ineficazes.
Com as discussões ocorrendo de forma pública, o Comitê pode ganhar peso fora das fronteiras do Facebook e passar a moldar a moderação de conteúdo em toda a internet. “Éimportante que todas as decisões sejam públicas. À medida que o Comitê for desenvolvendo seus entendimentos, pode-se criar uma jurisprudência. Não é aquela de tribunal, mas não deixa de ter o potencial de influenciar como a internet funciona”, afirma Diogo Coutinho, professor da Faculdade de Direito da Universidade de São Paulo (USP).
“Cada caso é um precedente que cria um padrão a ser usado em uma próxima situação semelhante. No médio prazo, esses parâmetros podem ser utilizados mesmo por empresas que não tenham um comitê”, diz.
Influência
O próprio Facebook espera que o Comitê possa ser um exemplo para outras decisões de governança de conteúdo na internet. Além disso, o fato de o órgão ser independente também abre a possibilidade de que sejam criadas dentro dele estruturas, como comitês adicionais, voltadas a outras plataformas – ainda não há informações, porém, de que arranjos do tipo estejam em andamento.
Nenhuma outra rede social tem hoje uma estrutura de moderação de conteúdo semelhante ao Comitê, com debate público sobre casos específicos. O TikTok tem um Conselho Consultivo de Segurança no Brasil composto por seis especialistas em meios digitais, que oferece apoio ao aplicativo em casos de discurso de ódio, bullying, desinformação e temas políticos – o debate, contudo, é apenas interno. “Embora não publiquemos as discussões que tivemos, acreditamos que o trabalho do Conselho se tornará visível à medida que ele desempenha um papel significativo na formação de nossas políticas e abordagem aos desafios que enfrentamos”, disse a empresa em resposta ao Estadão.
Já o Twitter afirma que guia sua moderação em regras pré-estabelecidas, que estão disponíveis publicamente. “Além disso, contamos com um Conselho de Confiança e Segurança que reúne mais de 40 especialistas e organizações para nos aconselhar à medida que desenvolvemos nossos produtos, programas e as regras”, afirma a rede social.
O YouTube, por sua vez, explica que remove conteúdo que esteja em desacordo com suas políticas de comunidade: “Nosso Gabinete de Inteligência monitora notícias, mídias sociais e relatos de usuários para detectar novas tendências a respeito de conteúdo inapropriado e trabalha para garantir que nossas equipes estejam preparadas para resolver os problemas antes que eles se tornem grandes”, afirma. A empresa também diz que conta “com avaliadores externos de todos os cantos do mundo para fornecer informações sobre a qualidade dos vídeos. Esses avaliadores se baseiam em diretrizes públicas para orientar seu trabalho”.
À prova
Antes de se tornar modelo para a concorrência, entretanto, o Comitê do Facebook ainda tem questões a serem respondidas. A primeira é o custo. “Não é qualquer empresa que consegue sustentar esse modelo – o orçamento foi de milhões de dólares. Há o risco de que essas estruturas possam aprofundar a situação de domínio das grandes plataformas”, afirma Artur Pericles Monteiro, coordenador de pesquisa de liberdade de expressão do InternetLab.
Para provar que o Comitê é um modelo de governança promissor, o Facebook também tem de mostrar que a iniciativa não é apenas uma jogada para que a empresa se proteja de autoridades e instituições públicas, que estão cada vez mais de olho nas empresas de tecnologia.
“É uma solução engenhosa: se a coisa ficar muito complicada, o Facebook pode terceirizar isso para cabeças independentes. A autorregulação pode ser boa, mas não substitui necessariamente a regulação estatal”, diz Coutinho.
Para João Pedro Favaretto Salvador, pesquisador do Centro de Ensino e Pesquisa em Inovação da FGV Direito SP, é importante que exista um experimento desse tipo, apesar de ser cedo para dizer se ele dará certo. “A moderação de conteúdo é um trabalho difícil. As plataformas terem a humildade de dizer que não dão conta de fazer isso sozinhas é um primeiro passo”, diz.