Ao anunciar o fim do programa de checagem de fatos nas redes sociais da Meta nos EUA e o afrouxamento de regras de moderação de conteúdo, Mark Zuckerberg prometeu a ampliação da liberdade de expressão no Facebook, Instagram e Threads. Porém, o que as mudanças devem acarretar é o aumento na opacidade das decisões tomadas internamente pela empresa, de acordo com o advogado e pesquisador de Harvard Caio Machado.
Em entrevista ao Verifica, o especialista em desinformação opinou que o anúncio de Zuckerberg mostra que a empresa vai ficar ainda menos transparente sobre quais procedimentos de moderação adota em suas plataformas. “No fim do dia, continuamos com forças opacas que vão determinar qual conteúdo irá ficar online. Em termos de avanço na qualidade da rede, não tivemos nenhum”, pontuou.
No anúncio feito na terça-feira, 7, Zuckerberg disse que iria “se livrar” do programa de checagem de fatos nos Estados Unidos. Fazem parte do programa empresas de jornalismo de verificação, que analisam postagens atrás de informações falsas ou enganosas. Depois que esses jornalistas avaliam que um post é enganoso ou falso, a Meta reduz a circulação do conteúdo e aplica um rótulo a ele. O Estadão Verifica faz parte do programa desde 2019.
De acordo com o anúncio do CEO da Meta, as redes sociais irão adotar o sistema “notas da comunidade”, semelhante ao método utilizado no X (antigo Twitter). O comunicado da empresa não detalhou como funcionará esse novo sistema, nem quando ele será adotado.
Agora, com o fim anunciado das checagens na plataforma, há incerteza sobre como a Meta vai agir sobre conteúdos que desinformam ou que infringem as regras de suas plataformas. Machado ressalta que as checagens seguem métodos mais transparentes.
“Os checadores de fatos sempre trouxeram mais do que a informação verdadeira”, disse. “Eles trazem procedimento para averiguar fatos. Então, conseguimos, através da checagem, ver onde a informação foi obtida, nós conseguimos checar o checador. Diferentemente do que o Facebook oferece, ou as outras plataformas da Meta oferecem, há um método por trás que a gente pode questionar”.
Moderação menos transparente
Machado publicou junto com outros pesquisadores de Harvard um estudo no fim do ano passado que mostra que a moderação feita por inteligência artificial (IA) pode levar à remoção indevida de conteúdos. No anúncio feito na terça-feira, a Meta admitiu que o uso de moderação automatizada estava causando “erros demais” e afirmou que iria diminuir o uso da derrubada automática de postagens.
De acordo com o texto do anúncio, essa automação só seria agora usada para violações mais graves, como as relacionadas a terrorismo e exploração sexual infantil. Ao mesmo tempo, a empresa comunicou que tinha começado a usar modelos de IA para, junto a moderadores humanos, avaliar se um conteúdo infringia ou não as regras da plataforma.
Caio observa que, apesar das mudanças anunciadas pelo CEO da Meta, a moderação de conteúdo automatizada, feita por algoritmos, deve permanecer. O problema disso é que a inteligência artificial pode tomar decisões arbitrárias na remoção de publicações feitas nas redes sociais. Uma questão que afeta principalmente a liberdade de expressão dos usuários e a não-discriminação.
Saiba mais
O estudo publicado no ano passado, que conta com a participação de Machado, investigou o impacto de diferentes modelos de aprendizado de máquina na moderação de conteúdo online. No artigo, os cientistas de Harvard observaram que esses “robôs” podem tomar decisões aleatórias e conflitantes sobre os conteúdos. Mesmo decisões que são óbvias aos humanos geraram discordância nos modelos.
“Uma das coisas que nós detectamos é que existe um grau de aleatoriedade, o que chamamos de arbitrariedade, inerente aos modelos. Ou seja, modelos igualmente bons, olham para um determinado conteúdo e definem coisas diferentes: uma diz que é tóxica e a outra diz que não. Ambos estão chutando”, explicou Machado.
Os dados revelam que publicações direcionadas à comunidade LGBT+, por exemplo, recebem veredictos mais arbitrários que outros. O artigo demonstra preocupação sobre como a imprecisão no julgamento afeta de maneira desproporcional grupos sociais.
“Ela não impacta todo mundo de forma igual. A aleatoriedade em determinados grupos às vezes dobra em relação ao outro”, disse Caio.
Uma das novidades anunciadas por Zuckerberg na terça, aliás, diz respeito ao afrouxamento de regras no que diz respeito a postagens sobre gênero e imigração. Antes, postagens que seriam consideradas ofensivas e seriam retiradas da plataforma agora serão permitidas.
Aleatoriedade nas decisões de moderação pode se agravar, segundo pesquisador
Machado afirma que as mudanças anunciadas por Zuckerberg não foram acompanhadas por um movimento para tornar o processo de moderação automatizada mais transparente. Isso significa que o fenômeno estudado por pesquisadores de Harvard deve continuar ou, até mesmo, se agravar.
Leia também
“Se houver uma redução da equipe de moderação de conteúdo, os efeitos desse fenômeno podem se agravar, porque a gente vai ter menos pessoas ou pessoas mais sobrecarregadas com lidar com as demandas de usuários”, avaliou o pesquisador. “Não sabemos se o fenômeno vai piorar, mas as garantias em torno desses fenômenos, como vieses, arbitrariedade, podem diminuir”.
Os problemas relacionados às imprecisões na moderação de conteúdo podem, inclusive, ter consequências na liberdade de expressão nas plataformas e na justiça processual. Conforme avaliado pelos pesquisadores, a arbitrariedade pode sujeitar os usuários a conclusões imprevisíveis e inconsistentes, violando um processo com regras claras de remoção das publicações.
O especialista afirma que não há um controle e uma identificação de decisões potencialmente aleatórias para que os usuários possam recorrer. “Para começar o debate, precisaríamos ter uma métrica [de arbitrariedade]. Atualmente, isso não existe”, pontua. “Não devemos parar de usar modelos de linguagem ou filtros de moderação de conteúdo, porque isso é completamente inviável. Precisamos ter controles de qualidade desse serviço”.
Decisão de Zuckerberg é política, para Machado
Machado também avalia que as declarações de Zuckerberg sinalizam uma decisão política da Meta. “Esses pontos mostram que a empresa não está disposta a abrir mão do que há na moderação de conteúdo e nem torná-la mais legítima. Pelo contrário, tem um interesse em tornar isso peça de troca no jogo político”, disse.
A Meta anunciou a mudança de sua sede da Califórnia para o Texas – um estado de maioria republicana. O pesquisador entende que as decisões sinalizam o uso das plataformas com objetivos geopolíticos.
“Isso mostra que a regulação das plataformas é uma agenda mais urgente e global. O Zuckerberg falou de trabalhar agendas políticas nos Estados Unidos, na América Latina e na Europa, agora é muito claro que o uso será feito para fins de geopolítica”, afirmou.
Machado opina que a regulamentação das redes sociais é uma ferramenta para garantir as liberdades dos usuários, incluindo a liberdade de expressão em países fora dos Estados Unidos.
“Precisamos proteger os usuários brasileiros e tornar isso uma agenda internacional. Na verdade, colaborar com a União Europeia e outros países latino-americanos para construir essas garantias”, afirmou. “Justamente é necessário impedir esse uso que, para além de uma questão consumerista ou de liberdades individuais, agora é instrumento de uma afronta à soberania nacional”, complementou.