Na terça-feira, 7, Mark Zuckerberg, CEO da Meta, anunciou uma série de mudanças na regulação dos conteúdos de suas redes sociais, o Facebook, o Instagram e o Threads. Elas decretam o fim da moderação de conteúdo, com o encerramento do programa de checagem de fatos e a relaxamento nos filtros de inteligência artificial. No lugar, a empresa adotará o método de Notas de comunidade, no qual os próprios usuários serão responsáveis por denunciar conteúdos considerados nocivos.
A decisão de Zuckerberg agradou os apoiadores de Donald Trump, que inclusive afirmou que suas ameaças a Zuckerberg “provavelmente” influenciaram as mudanças do CEO. Em 2024, Trump ameaçou “mandar Zuckerberg para prisão perpétua” caso ele usasse as redes sociais para prejudicar sua reeleição.
O sistema de Notas de comunidade foi adotado inicialmente no X, de Elon Musk, que passou a ser conhecido como um ambiente digital que abraça o radicalismo, desinformação e outros conteúdos nocivos. A ferramenta de moderação faz com que os próprios usuários sejam responsáveis por denunciar conteúdo considerado nocivo nas redes, mas o caminho não é tão simples assim. Veja abaixo como o recurso funciona.
Como funciona?
As Notas de comunidade são uma forma coletiva de moderação e, segundo a Meta, uma maneira “menos parcial” de checagem de fatos, substituindo o trabalho de agências especializadas.
A ferramenta funciona por meio de usuários voluntários, que poderão sinalizar, por meio de mensagens curtas, se o conteúdo é considerado nocivo para a comunidade. Depois disso, outros usuários avaliam se a nota é considerada útil ou não, por meio de critérios como a clareza da informação e o uso das fontes. Se a maioria aprovar, o alerta deve aparecer embaixo das postagens.
De acordo com a Meta, usuários poderão se inscrever para o processo a partir da próxima segunda-feira, 13. Entretanto, não divulgou quais serão os critérios avaliados.
Leia também
Meta acaba com a checagem de informação em suas plataformas em mais uma sinalização ao governo Trump
‘América Latina tem tribunais secretos de censura’, diz Zuckerberg ao acabar com moderação na Meta
‘Decisão da Meta é lamentável’, diz especialista em direitos na internet
Trump diz que suas ameaças a Zuckerberg provavelmente influenciaram nas mudanças da Meta
Fim da moderação de conteúdo na Meta deve impulsionar desinformação e influenciar outras redes
Quais são os riscos desse tipo de moderação?
Até aqui, a Meta mantinha um programa de checagem de fatos em mais de 26 idiomas ao redor do mundo, além de contratos com mais de 80 veículos de comunicação para a realização desse trabalho de verificação. Agora, essa responsabilidade será dos usuários, que dependerão do bom senso da comunidade para considerar um contéudo “perigoso” ou não.
É notável que haverá pessoas mal intencionadas e que, assim, a disseminação de notícias falsas nas redes socias será muito mais simplificada e ampliada.
Segundo a Meta, as plataformas só influenciarão em postagens claramente nocivas, como discursos sobre terrorismo, por exemplo.
Além disso, em seu vídeo, Zuckerberg afirmou que a empresa deixará de sinalizar posts que falam sobre gênero, sexualidade e imigração, temas que podem, muitas vezes, vir acompanhados de um forte discurso de ódio. Para o CEO, essa é a maneira de voltarmos para as “raízes e origens” das redes sociais. Segundo ele, a checagem de fatos foi “longe demais” e “vem se confundindo com censura”.
*Mariana Cury é estagiária sob supervisão do editor Bruno Romani