NEW YORK TIMES - Imagens falsas e sexualmente explícitas de Taylor Swift, provavelmente geradas por inteligência artificial (IA), se espalharam rapidamente pelas plataformas de redes sociais nesta semana, perturbando os fãs que as viram e reacendendo os apelos dos legisladores para proteger as mulheres e reprimir as plataformas e a tecnologia que divulgam essas imagens.
Uma imagem compartilhada por um usuário no X, antigo Twitter, foi vista 47 milhões de vezes antes de a conta ser suspensa na quinta-feira, 25. O X suspendeu várias contas que publicaram as imagens falsas de Taylor Swift, mas as imagens foram compartilhadas em outras plataformas e continuaram a se espalhar, apesar dos esforços das empresas para removê-las.
Embora o X tenha dito que estava trabalhando para remover as imagens, os fãs da superestrela pop inundaram a plataforma em protesto. Eles postaram palavras-chave relacionadas, juntamente com a frase “Protect Taylor Swift”, em um esforço para abafar as imagens explícitas e torná-las mais difíceis de serem encontradas.
A Reality Defender, uma empresa de segurança cibernética voltada para a detecção de IA, determinou com 90% de confiança que as imagens foram criadas usando um modelo de difusão, uma tecnologia orientada por IA acessível por meio de mais de 100 mil aplicativos e modelos disponíveis publicamente, disse Ben Colman, cofundador e executivo-chefe da empresa.
Com o crescimento do setor de IA, as empresas correram para lançar ferramentas que permitem aos usuários criar imagens, vídeos, textos e gravações de áudio com simples comandos. As ferramentas de IA são extremamente populares, mas tornaram mais fácil e mais barato do que nunca criar os chamados deepfakes, que retratam pessoas fazendo ou dizendo coisas que nunca fizeram.
Os pesquisadores agora temem que os deepfakes estejam se tornando uma poderosa força de desinformação, permitindo que os usuários comuns da internet criem imagens de nudez não consensuais ou retratos embaraçosos de candidatos políticos. A inteligência artificial foi usada para criar chamadas automáticas falsas do presidente Biden durante as primárias de New Hampshire e Taylor Swift foi apresentada este mês em anúncios deepfake que vendiam utensílios de cozinha.
“Sempre foi uma tendência obscura da internet, a pornografia não consensual de vários tipos”, disse Oren Etzioni, professor de ciência da computação da Universidade de Washington que trabalha com detecção de deepfake. “Agora é uma nova variedade que é particularmente nociva.”
“Veremos um tsunami dessas imagens explícitas geradas por IA. As pessoas que geraram essas imagens veem isso como um sucesso”, disse Etzioni.
O X disse que tinha uma política de tolerância zero com relação ao conteúdo. “Nossas equipes estão removendo ativamente todas as imagens identificadas e tomando as medidas apropriadas contra as contas responsáveis por publicá-las”, disse um representante em um comunicado. “Estamos monitorando de perto a situação para garantir que quaisquer outras violações sejam tratadas imediatamente e que o conteúdo seja removido.”
O X tem registrado um aumento de conteúdo problemático, incluindo assédio, desinformação e discurso de ódio, desde que Elon Musk comprou o serviço em 2022. Ele afrouxou as regras de conteúdo do site e demitiu, dispensou ou aceitou a demissão de membros da equipe que trabalharam para remover esse tipo de conteúdo. A plataforma também restabeleceu contas que haviam sido banidas anteriormente por violarem as regras.
Embora muitas das empresas que produzem ferramentas de IA generativas proíbam seus usuários de criar imagens explícitas, as pessoas encontram maneiras de violar as regras. “É uma corrida armamentista, e parece que sempre que alguém cria uma barreira de proteção, outra pessoa descobre como escapar da prisão”, disse Etzioni.
As imagens foram originadas em um canal do aplicativo de mensagens Telegram, dedicado à produção dessas imagens, de acordo com o 404 Media, um site de notícias sobre tecnologia. Mas os deepfakes ganharam ampla atenção depois de serem postados no X e em outros serviços de rede social, onde se espalharam rapidamente.
Alguns estados americanos restringiram os deepfakes pornográficos e políticos. Mas as restrições não tiveram um grande impacto, e não há regulamentações federais para esses deepfakes, disse Colman. As plataformas tentaram lidar com os deepfakes pedindo aos usuários que os denunciassem, mas esse método não funcionou, acrescentou. Quando elas são sinalizadas, milhões de usuários já as viram.
A porta-voz de Taylor Swift, Tree Paine, não respondeu imediatamente aos pedidos de comentários na quinta-feira.
Os deepfakes de Taylor Swift provocaram novos pedidos de ação por parte dos legisladores. O deputado Joe Morelle, democrata de Nova York, que apresentou um projeto de lei no ano passado que tornaria o compartilhamento de tais imagens um crime federal, disse no X que a disseminação das imagens era “terrível”, acrescentando: “Isso está acontecendo com mulheres em todos os lugares, todos os dias”.
“Eu avisei repetidamente que a IA poderia ser usada para gerar imagens íntimas não consensuais”, disse o senador Mark Warner, democrata da Virgínia e presidente do Comitê de Inteligência do Senado, sobre as imagens no X. “Essa é uma situação deplorável.”
A deputada Yvette D. Clarke, democrata de Nova York, disse que os avanços na inteligência artificial tornaram a criação de deepfakes mais fácil e barata.
“O que aconteceu com Taylor Swift não é novidade”, disse ela.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.