Redes sociais ainda são mais perigosas para a democracia do que IA generativa, mostra pesquisa

Estudo da Universidade de Nova York aponta retrocesso em relação à segurança eleitoral e desinformação nas redes sociais

PUBLICIDADE

Foto do author Bruna Arimathea
Atualização:
Foto: Acervo Pessoal/Paul Barrett
Entrevista comPaul BarrettVice-diretor e pesquisador sênior do Centro de negócios e direitos humanos da NYU

O ano de 2024 vai ser marcado por grandes eleições no mundo: a corrida presidencial nos Estados Unidos já começou e outras nações como Índia e México também escolhem seus representantes nos próximos meses - no Brasil, as eleições municipais em outubro já dominam as discussões na internet. Mesmo com o avanço da inteligência artificial (IA) generativa, a principal ameaça à democracia neste ano não são os textos ou imagens geradas por algoritmos: as redes sociais ainda são os vilões políticos, segundo uma pesquisa publicada em fevereiro deste ano pela Universidade de Nova York (NYU).

Intitulado “Digital Risks to the 2024 Elections: Safeguarding Democracy in an Era of Disinformation” (“Riscos digitais para as eleições de 2024: Salvaguardando a democracia em uma era de desinformação”), o estudo afirma que o potencial de distribuição de desinformação segue como o grande perigo tecnológico para democracias, mesmo com a força da IA - o TSE mirou o problema em fevereiro deste ano, quando regulamentou o uso da IA nas campanhas para as eleições municipais. Agora, é proibido usar deepfakes e toda propaganda que usar IA precisa ser, obrigatoriamente, identificada.

A situação se agrava, principalmente, porque, no último ano, equipes inteiras de moderação e segurança foram demitidas pelas grandes empresas de tecnologia - o X, de Elon Musk, por exemplo, eliminou a divisão de moderação de conteúdo no final de 2022, quando o bilionário assumiu a empresa. Na ocasião, mais de 80% dos funcionários foram demitidos.

Ao Estadão, Paul Barrett, pesquisador sênior do centro de negócios e direitos humanos da NYU Stern e um dos autores do estudo, diz que as grandes empresas de tecnologia estão se esquivando da responsabilidade de operar plataformas livres de conteúdos falsos ou de desinformação em prol da eficiência financeira e do engajamento nessas redes.

O estudo, assinado também por Justin Hendrix, Cecely Richard-Carvajal e Prithvi Iyer, faz, ainda, uma reflexão sobre como as redes sociais influenciam o processo democrático em outros países. No Brasil, por exemplo, a pesquisa considerou que os ataques de 8 de janeiro de 2023 em Brasília foram respaldados pelas redes sociais e que uma das maiores barreiras para moderar o conteúdo é a falta de profissionais que falem português nessas empresas.

Publicidade

“(As empresas) precisam acrescentar pessoas que falem português e entendam a cultura e a política brasileiras para que possam analisar a situação (eleições) com sofisticação e não como estrangeiros. Mas ainda não vimos isso”, explicou Barrett.

X, de Elon Musk, eliminou a divisão de moderação de conteúdo no final de 2022, quando o bilionário assumiu a empresa  Foto: Carlos Barria/Reuters

Leia os melhores momentos da entrevista:

Por que as redes sociais ainda representam um risco maior para as eleições do que a IA?

No estudo, chegamos à conclusão de que é improvável que as criações de vídeos, imagens, áudio ou textos falsos sejam, isoladamente, o principal problema. Não é tanto a nova maneira de criar conteúdo que é problemática, é o velho problema da distribuição desse conteúdo. Se quisermos tentar fazer algo para diminuir esse problema, precisamos olhar para as empresas que operam plataformas de rede social há alguns anos. A inteligência artificial é importante. Queremos enfatizar que ela já está afetando o processo político. Mas o fato de empresas como a Meta, o Google, o X e o TikTok não estarem intensificando suas atividades para proteger as eleições é o principal problema. Elas parecem estar se afastando, recuando do senso de que são responsáveis por ajudar a resolver problemas que elas mesmas criaram.

Enquanto esse formato de rede social existir, ele será o principal perigo para as eleições?

Sim. Ou outra forma de dizer: você não precisa necessariamente de inteligência artificial para criar problemas pelo X ou pelo Facebook ou Instagram ou TikTok. A inteligência artificial pode facilitar o abuso do sistema, mas você pode deixar a inteligência artificial de lado e ainda assim ter um grande problema.

Com as demissões e a redução das equipes de moderação e revisão de conteúdo, as eleições deste ano podem encontrar mais problemas com a desinformação?

Sim. No X você, basicamente, tem mesas vazias. As pessoas que estavam lá há um ano ou um ano e meio, agora não estão mais. Mas, em um grau menor, isso também é verdade em algumas das outras empresas. É importante lembrar que não se trata apenas do fato de pessoas específicas terem sido demitidas. É o sinal que isso envia para as pessoas que ainda estão lá. As pessoas não estão alheias. E se olharem ao redor, metade do departamento que costumava se dedicar à proteção das eleições desapareceu. O sinal que recebem é que essa não é a prioridade máxima.

Publicidade

Outros países, como o Brasil, podem sofrer com a falta de esforços e moderação política por não terem o inglês como idioma oficial?

Isso é extremamente importante. E, é claro, não se trata apenas do português, mas do hindi e de outros 12 idiomas falados na Índia, e assim por diante. Dada a experiência que essas empresas tiveram nos últimos seis, sete anos, eu diria que estamos em um ponto em que todos perceberam que temos um grande problema aqui. Tivemos, nos EUA, a eleição de 2020 que foi uma experiência muito traumática. Em outros lugares também. Seria de se esperar que, depois disso, essas empresas entendessem que para manter a reputação, precisam intensificar as atividades. Que precisam acrescentar, por exemplo, pessoas que falem português e entendam a cultura e a política brasileiras para que possam analisar a situação (eleições) com sofisticação e não como estrangeiros. Mas ainda não vimos isso. Então, acho que tudo isso de que estamos falando é um grande problema nos EUA, mas é um problema ainda maior fora dos Estados Unidos.

PUBLICIDADE

Em relação à moderação, essas plataformas estão realmente piores agora do que nas eleições anteriores?

Sim, acho que estamos em uma situação pior hoje do que estávamos em 2020, com certeza. E acho que as lições que deveriam ter sido aprendidas em 2020 nos EUA, em 2022 no Brasil e em outros lugares não foram aprendidas. A disseminação de conteúdo muito odioso nessas redes faz com que as pessoas vejam o outro lado não apenas como adversários políticos, mas como uma ameaça ao país. Em vez de tomar uma atitude e introduzir novas proteções, eles (as empresas de tecnologia) permitiram que as proteções existentes fossem reduzidas. Eles rescindiram políticas criadas para desencorajar as pessoas, por exemplo, de alegarem, sem qualquer evidência, que as eleições são fraudulentas. E acho que a motivação é simplesmente que “se pudermos nos safar com menos pessoas e se pudermos nos safar sem assumir responsabilidades, tiraremos proveito disso”.

Acho que as lições que deveriam ter sido aprendidas em 2020 nos EUA, em 2022 no Brasil e em outros lugares não foram aprendidas”

Paul Barrett

Como as redes sociais podem agir contra a IA generativa?

PUBLICIDADE

A principal coisa que as plataformas podem fazer é descobrir maneiras de usar a tecnologia para identificar conteúdo criado artificialmente. Assim, você pode fazer isso no início do processo para que uma imagem, um vídeo, um áudio ou um texto seja rotulado de alguma forma se tiver sido gerado por um modelo de IA. Há maneiras de colocar nos metadados um sinal de que ele foi feito por um sistema de IA, e não por um ser humano.

Na outra ponta do processo, você pode tentar criar sistemas de detecção que possam ser executados continuamente. E eles podem detectar que há uma boa chance de que uma determinada fotografia, vídeo ou qualquer outra coisa tenha sido feita artificialmente, e isso vai sinalizar ao usuário: “ei, tenha cuidado, isso pode ser IA”. Nenhuma dessas tecnologias foi aperfeiçoada ainda. Elas não são bem-sucedidas, mas as próprias pessoas que estão criando os sistemas de IA são as pessoas de que precisamos para criá-las.

Ainda assim, não seria fácil burlar esses métodos nas redes sociais?

Esse é um problema geral, porque as pessoas que estão determinadas a fazer mau uso da tecnologia tendem a encontrar maneiras de fazer isso. E não se pode esperar que as empresas apresentem soluções perfeitas. Você só pode esperar que elas façam o melhor que puderem e tentem deter um certo número de pessoas. Mas se você conseguir deter alguns dos malfeitores, terá mais tempo e energia para se concentrar nos melhores e mais talentosos malfeitores e ficar de olho neles. Você não vai mudar isso, mas isso não é uma desculpa para não fazer nada.

Há algum caminho para que as redes sociais se tornem melhores do que são agora?

Infelizmente, acho que a única maneira de eles mudarem é se houver outra crise que seja suficientemente dramática para que se forme um consenso em torno de determinadas ideias de reforma. E isso os levará a tentar sair na frente e adotar essas ideias antes que elas sejam impostas. Acho que, infelizmente, somos frequentemente levados por eventos muito ruins e muito dramáticos. E até que esses piores casos apareçam, as pessoas tendem a afastar os problemas e dizer: “não tenho outra pessoa para lidar com isso”. Portanto, acho que essa é a única maneira pela qual isso pode acontecer. Acho que, por exemplo, nos EUA, muitas pessoas já se esqueceram do que aconteceu em 6 de janeiro de 2021. E acho que, infelizmente, poderíamos facilmente ter tipos semelhantes de eventos após a próxima eleição. E isso pode ser o que é necessário para conseguirmos uma mudança real.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.