THE WASHINGTON POST - Há algum tempo, especialistas em inteligência artificial (IA) alertam que o conteúdo gerado por IA pode turvar as águas daquilo que é percebido como realidade. Apenas algumas semanas de um ano eleitoral decisivo nos EUA já são suficientes para dizer a confusão com a IA está aumentando.
Políticos de todo o mundo têm desqualificado evidências potencialmente condenáveis para as suas campanhas como falsificações geradas por IA - são filmagens de encontros em hotéis ou gravações de voz criticando adversários políticos.
No mês passado, o ex-presidente dos EUA Donald Trump desqualificou um anúncio transmitido na Fox News que relembrava algumas de suas mais conhecidas gafes públicas - incluindo sua dificuldade de pronunciar a palavra “anônimo” e sua visita à cidade californiana de Paradise, ambas em 2018. O ex-presidente agora afirma que as imagens foram geradas por IA.
“Os pervertidos e perdedores do fracassado e já dissolvido Projeto Lincoln estão usando IA em seus falsos comerciais de televisão para me fazer parecer tão ruim e patético quanto Joe Biden, uma coisa nada fácil de fazer”, escreveu Trump no Truth Social. “A FoxNews não deveria veicular esses anúncios.”
O Lincoln Project, um comitê de ação política formado por republicanos moderados para se opor a Trump, negou rapidamente a acusação. O anúncio apresentava incidentes durante a presidência de Trump que foram amplamente cobertos na época e testemunhados na vida real por muitos observadores independentes.
Leia também
Ainda assim, a IA cria um “dividendo do mentiroso”, disse Hany Farid, professor da Universidade da Califórnia em Berkeley que estuda propaganda digital e desinformação. “Quando você realmente pega um policial ou um político dizendo algo horrível, eles têm uma negação plausível” na era da IA.
A IA “desestabiliza o próprio conceito de verdade”, acrescentou Libby Lange, analista da organização de rastreamento de desinformação Graphika. “Se tudo pode ser falso e se todos estão afirmando que tudo é falso ou manipulado de alguma forma, não há realmente nenhum senso de verdade básica. Os atores com motivação política, especialmente, podem fazer qualquer interpretação que desejarem.”
Trump não é o único a aproveitar essa vantagem. Em todo o mundo, a IA está se tornando um bode expiatório comum para políticos que tentam se defender de acusações prejudiciais.
No final do ano passado, surgiu um vídeo de um político taiwanês do partido governista entrando em um hotel com uma mulher, indicando que ele estava tendo um caso. Comentaristas e outros políticos rapidamente saíram em sua defesa, dizendo que a filmagem foi gerada por IA - embora ainda não esteja claro se realmente foi.
Em abril, vazou uma gravação de voz de 26 segundos na qual um político do estado de Tamil Nadu, no sul da Índia, parecia acusar seu próprio partido de acumular ilegalmente US$ 3,6 bilhões, segundo reportagem do Rest of World. O político negou a veracidade da gravação, chamando-a de “gerada por máquina”; especialistas disseram que não têm certeza se o áudio é real ou falso.
A confusão relacionada à IA também está indo além da política. Na semana passada, circulou nas redes sociais um áudio no qual supostamente o diretor de escola do Condado de Baltimore, Maryland, fazia um discurso racista contra judeus e estudantes negros. O sindicato que representa o diretor disse que o áudio foi gerado por IA.
Vários sinais apontam para essa conclusão, inclusive a cadência uniforme do discurso e as indicações de emendas, disse Farid, que analisou o áudio. Mas sem saber de onde veio ou em que contexto foi gravado, disse ele, é impossível ter certeza.
Nas redes sociais, a maioria das pessoas parece acreditar que o áudio é real, e o distrito escolar afirma ter iniciado uma investigação. Um pedido de comentário ao diretor por meio de seu sindicato não foi respondido.
Essas acusações têm peso porque os deep fakes se tornaram ao mesmo tempo mais comuns e mais sofisticados. Enquanto isso, as ferramentas e os métodos para identificar uma mídia criada por IA não estão acompanhando os rápidos avanços na capacidade da IA de gerar esse tipo de conteúdo.
Imagens falsas de Trump já se tornaram virais várias vezes. No início deste mês, o ator Mark Ruffalo publicou imagens criadas por IA de Trump com meninas adolescentes, alegando que as imagens mostravam o ex-presidente em um avião particular de propriedade do criminoso sexual condenado Jeffrey Epstein. Mais tarde, Ruffalo pediu desculpas.
Trump, que passou semanas protestando contra a IA no Truth Social, publicou sobre o incidente, dizendo: “Isso é IA e é muito perigoso para o nosso país!”
A crescente preocupação com o impacto da IA na política e na economia mundial foi um dos principais temas do Fórum Econômico Mundial em Davos, na Suíça, na semana passada. Em seu discurso de abertura da conferência, a presidente da Suíça, Viola Amherd, chamou a propaganda e as mentiras geradas pela IA de “uma ameaça real” à estabilidade mundial, “especialmente hoje, quando o rápido desenvolvimento da inteligência artificial contribui para o aumento da credibilidade dessas notícias falsas”.
As empresas de tecnologia e de mídia social afirmam que estão estudando a criação de sistemas para verificar e moderar automaticamente o conteúdo gerado por IA, mas ainda não o fizeram. Enquanto isso, somente especialistas possuem a tecnologia e o conhecimento para analisar uma mídia e determinar se ela é real ou falsa. O problema cresce agora que esse tipo de conteúdo pode ser gerado por praticamente qualquer pessoa.
“Você não precisa ser um cientista da computação. Não precisa saber programar”, diz Farid. “Não há mais barreira de entrada.”
Aviv Ovadya, especialista no impacto da IA sobre a democracia e afiliado ao Berkman Klein Center da Universidade Harvard, diz que o público em geral está muito mais ciente das falsificações. À medida que políticos se esquivarem de críticas alegando que as provas divulgadas contra eles são IA, mais pessoas farão afirmação parecida. “Há um efeito de contágio”, diz ele, observando um aumento semelhante no número de políticos que falsamente chamam uma eleição de fraudulenta.
Ovadya disse que as empresas de tecnologia têm as ferramentas para regular o problema: elas poderiam colocar uma marca d’água no áudio para criar uma impressão digital ou participar de uma coalizão destinada a impedir a disseminação de informações enganosas online, desenvolvendo padrões técnicos que estabeleçam as origens do conteúdo da mídia. O mais importante, diz ele, é que elas poderiam ajustar seus algoritmos para não promover conteúdo sensacionalista, mas potencialmente falso.
Até o momento, segundo ele, as empresas de tecnologia, em sua maioria, não tomaram medidas para proteger a percepção da realidade do público.
“Enquanto os incentivos continuarem a ser o sensacionalismo voltado para o engajamento e o conflito real”, diz ele, “esses são os tipos de conteúdo - seja deep fake ou não - virão à tona”.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.