AP - Na guerra entre Israel e Hamas, entre imagens de casas bombardeadas e ruas devastadas de Gaza, algumas se destacaram pelo horror absoluto: bebês ensanguentados e abandonados.
Vistas milhões de vezes online desde o início do conflito, essas imagens são deep fakes criadas com inteligência artificial (IA). Se você olhar de perto, pode ver pistas: dedos que se curvam de maneira estranha ou olhos que brilham com uma luz antinatural — sinais reveladores de engano digital.
A indignação que as imagens foram criadas para provocar, no entanto, é muito real.
As imagens da guerra entre Israel e Hamas ilustraram vividamente e dolorosamente o potencial da IA como uma ferramenta de propaganda, usada para criar imagens realistas de carnificina. Desde o início da guerra, no mês passado, imagens digitalmente alteradas espalhadas nas redes sociais têm sido usadas para fazer falsas alegações sobre responsabilidade por vítimas ou para enganar as pessoas sobre atrocidades que nunca aconteceramEmbora a maioria das alegações falsas que circulam online sobre a guerra não tenha exigido IA para ser criada e tenha vindo de fontes mais convencionais, os avanços tecnológicos estão chegando com frequência crescente e pouca supervisão. Isso tornou o potencial da IA para se tornar outra forma de arma nitidamente aparente e ofereceu um vislumbre do que está por vir durante futuros conflitos, eleições e outros grandes eventos.
“Vai piorar — muito — antes de melhorar”, diz Jean-Claude Goldenstein, CEO da CREOpoint, empresa de tecnologia sediada em São Francisco e Paris que usa IA para avaliar a validade de reivindicações online. A empresa criou um banco de dados dos deep fakes mais virais que surgiram de Gaza.
Em alguns casos, fotos de outros conflitos ou desastres foram reaproveitadas e apresentadas como novas. Em outros, programas de IA gerativa foram usados para criar imagens do zero, como a de um bebê chorando em meio aos destroços de um bombardeio que viralizou nos primeiros dias do conflito.
Outros exemplos de imagens geradas por IA incluem vídeos mostrando supostos ataques de mísseis israelenses, ou tanques rolando por bairros arruinados, ou famílias vasculhando escombros em busca de sobreviventes.
Em muitos casos, as falsificações parecem projetadas para evocar uma reação emocional forte, incluindo corpos de bebês, crianças ou famílias. Nos sangrentos primeiros dias da guerra, apoiadores de Israel e do Hamas alegaram que o outro lado havia vitimizado crianças e bebês; imagens deep fake de bebês chorando ofereceram ‘provas’ fotográficas que foram rapidamente apontadas como prova.
Os propagandistas que criam tais imagens são habilidosos em direcionar os impulsos e ansiedades mais profundos das pessoas, diz Imran Ahmed, CEO do Centro para Combater o Ódio Digital, organização sem fins lucrativos que rastreou a desinformação da guerra. Seja um bebê deep fake ou uma imagem real de um bebê de outro conflito, o impacto emocional no espectador é o mesmo.
Quanto mais abominável a imagem, mais provável é que um usuário se lembre dela e a compartilhe, espalhando ainda mais a desinformação sem saber.
“As pessoas estão sendo informadas agora: Veja esta imagem de um bebê”, diz Ahmed. “A desinformação é projetada para fazer você interagir com ela.”
Conteúdo gerado por IA igualmente enganoso começou a se espalhar após a Rússia invadir a Ucrânia em 2022. Um vídeo alterado parecia mostrar o presidente ucraniano Volodymyr Zelenskyy ordenando aos ucranianos que se rendessem. Tais alegações continuaram a circular até a semana passada, mostrando o quão persistente pode ser a desinformação, mesmo facilmente desmascarada.
Cada novo conflito ou temporada eleitoral fornece novas oportunidades para os vendedores de desinformação demonstrarem os últimos avanços da IA. Isso tem muitos especialistas em IA e cientistas políticos alertando sobre os riscos no próximo ano, quando vários países realizam eleições importantes, incluindo os EUA, Índia, Paquistão, Ucrânia, Taiwan, Indonésia e México.
O risco de que IA e redes sociais possam ser usados para espalhar mentiras para os eleitores dos EUA alarmou legisladores de ambos os partidos em Washington. Em uma audiência recente sobre os perigos da tecnologia deep fake, o deputado americano Gerry Connolly, democrata da Virgínia, diz que os EUA devem investir em financiar o desenvolvimento de ferramentas de IA projetadas para combater outras IA.
“Como nação, precisamos acertar isso”, diz Connolly.
Em todo o mundo, várias empresas de tecnologia estão trabalhando em novos programas que podem detectar deep fakes, aplicar marcas d’água às imagens para provar sua origem ou verificar textos para verificar quaisquer alegações suspeitas que possam ter sido inseridas por IA.
“A próxima onda de IA será: Como podemos verificar o conteúdo que está lá fora. Como você pode detectar desinformação, como você pode analisar texto para determinar se é confiável?” diz Maria Amelie, co-fundadora da Factiverse, uma empresa norueguesa que criou um programa de IA que pode verificar conteúdos quanto a imprecisões ou viés introduzidos por outros programas de IA.
Tais programas seriam de interesse imediato para educadores, jornalistas, analistas financeiros e outros interessados em erradicar falsidades, plágio ou fraude. Programas semelhantes estão sendo projetados para detectar fotos ou vídeos adulterados.
Embora esta tecnologia mostre promessa, aqueles que usam IA para mentir costumam estar um passo à frente, segundo David Doermann, cientista da computação que liderou um esforço na Agência de Projetos de Pesquisa Avançada de Defesa para responder às ameaças à segurança nacional representadas por imagens manipuladas por IA.
Doermann, agora professor na Universidade de Buffalo, diz que responder efetivamente aos desafios políticos e sociais representados pela desinformação de IA exigirá tanto uma tecnologia melhor quanto melhores regulamentos, padrões industriais voluntários e investimentos extensivos em programas de alfabetização digital para ajudar os usuários da internet a descobrir maneiras de distinguir a verdade da fantasia.
“Toda vez que lançamos uma ferramenta que detecta isso, nossos adversários podem usar IA para encobrir essa evidência”, diz Doermann. “A detecção e tentativa de retirar isso não é mais a solução. Precisamos de uma solução muito maior.”
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.