Nudes falsos de Taylor Swift que se espalharam pela internet surgiram no 4chan, diz estudo

Usuários que criaram com ajuda de IA imagens explícitas da cantora enxergavam isso como espécie de jogo, afirmam pesquisadores

PUBLICIDADE

Por Tiffany Hsu

THE NEW YORK TIMES - Os nudes falsos de Taylor Swift que foram geradas por inteligência artificial (IA) e se espalharam rapidamente pelas redes sociais no final de janeiro provavelmente se originaram como parte de um desafio em um dos fóruns mais famosos da internet, de acordo com uma pesquisa.

A Graphika, empresa de pesquisa que estuda a desinformação na internet, rastreou as imagens até uma comunidade no 4chan, um fórum de mensagens conhecido por compartilhar discursos de ódio, teorias da conspiração e, cada vez mais, conteúdo racista e ofensivo criado usando IA.

PUBLICIDADE

Usuários do 4chan que criaram as imagens da cantora fizeram isso em uma espécie de jogo, disseram os pesquisadores - um teste para ver se conseguiam criar imagens sexualizadas (e às vezes violentas) de figuras femininas famosas.

As imagens sintéticas de Taylor se espalharam por outras plataformas e foram vistas milhões de vezes. Os fãs se mobilizaram em defesa da cantora, e os legisladores exigiram proteções mais rigorosas contra imagens criadas por IA.

Publicidade

A Graphika encontrou um tópico de mensagens no 4chan que incentivava as pessoas a tentar burlar as proteções estabelecidas pelas ferramentas de geração de imagens, incluindo o DALL-E da OpenAI, o Microsoft Designer e o Bing Image Creator. Os usuários foram instruídos a compartilhar “dicas e truques para encontrar novas maneiras de contornar os filtros” e disseram: “Boa sorte, seja criativo”.

Taylor não é a primeira vítima de imagens falsas explícitas criadas por IA Foto: REUTERS / REUTERS

O compartilhamento de conteúdo desagradável por meio de desafios permite que as pessoas nesses grupos se sintam conectadas a uma comunidade mais ampla, e elas são motivadas pelo prestígio que recebem por participar, dizem os especialistas. Antes das eleições de meio de mandato nos EUA em 2022, grupos em plataformas como Telegram, WhatsApp e Truth Social se engajaram em uma caçada à fraude eleitoral, ganhando pontos ou títulos honorários por produzir supostas evidências de fraude eleitoral (a prova verdadeira de fraude eleitoral é excepcionalmente rara).

No tópico do 4chan que levou às imagens falsas de Taylor Swift, vários usuários receberam elogios e foram solicitados a compartilhar a linguagem de prompt usada para criar as imagens. Um usuário lamentou que uma solicitação tenha produzido uma imagem de uma celebridade vestida com um maiô em vez de nua.

As regras publicadas pelo 4chan que se aplicam a todo o site não proíbem especificamente imagens sexualmente explícitas geradas por IA de adultos reais.

Publicidade

“Essas imagens se originaram de uma comunidade de pessoas motivadas pelo ‘desafio’ de contornar as proteções das ferramentas IA, e as novas restrições são vistas como apenas mais um obstáculo a ser ‘vencido’”, disse Cristina López G., analista sênior da Graphika, em um comunicado. “É importante entender a natureza gamificada dessa atividade maliciosa para evitar mais abusos.”

Taylor Swift está “longe de ser a única vítima”, diz López G. Na comunidade 4chan que manipulou sua imagem, muitas atrizes, cantoras e políticas apareceram com mais frequência do que Taylor.

A OpenAI disse em um comunicado que as imagens explícitas de Taylor não foram geradas usando suas ferramentas, observando que ela filtra o conteúdo mais explícito ao treinar seu modelo DALL-E. A empresa também disse que usa outras proteções de segurança, como negar solicitações que peçam o nome de uma figura pública ou que busquem conteúdo explícito.

A Microsoft disse que “continua investigando essas imagens” e acrescentou que “reforçou nossos sistemas de segurança existentes para evitar que nossos serviços sejam usados indevidamente para ajudar a gerar imagens como essas”. A empresa proíbe que os usuários usem suas ferramentas para criar conteúdo adulto ou íntimo sem consentimento e avisa aos infratores reincidentes que eles podem ser bloqueados.

A pornografia falsa gerada com software tem sido uma praga desde pelo menos 2017, afetando celebridades involuntárias, figuras do governo, streamers do Twitch, estudantes e outros. A regulamentação irregular deixa as vítimas com poucos recursos legais - Taylor Swift teve apoio de uma base de fãs dedicada para abafar as imagens falsas.

Taylor Swift é mais uma vítima de imagens adultas criadas por IA Foto: REUTERS / REUTERS

PUBLICIDADE

Reação de autoridades

Depois que as imagens falsas da cantora se tornaram virais, Karine Jean-Pierre, secretária de imprensa da Casa Branca, chamou a situação de “alarmante” e disse que a aplicação negligente das regras pelas empresas de mídia social afetava desproporcionalmente mulheres e meninas.

Ela disse que o Departamento de Justiça financiou recentemente a primeira linha de ajuda nacional para pessoas vítimas de abuso sexual com base em imagens, que o departamento descreveu como atendendo a uma “necessidade crescente de serviços” relacionados à distribuição de imagens íntimas sem consentimento. O SAG-AFTRA, sindicato que representa dezenas de milhares de atores, chamou as imagens falsas de Taylor Swift e de outras pessoas de “roubo de sua privacidade e direito à autonomia”.

Os pesquisadores disseram que a primeira imagem de IA sexualmente explícita de Taylor no tópico do 4chan apareceu em 6 de janeiro, 11 dias antes de aparecerem no Telegram e 12 dias antes de surgirem no X (ex-Twitter). O site 404 Media informou em 25 de janeiro que as imagens virais da cantora haviam saltado para as principais plataformas de mídia social do 4chan e de um grupo do Telegram dedicado a imagens abusivas de mulheres. A organização britânica de notícias Daily Mail informou naquela semana que um site conhecido por compartilhar imagens sexualizadas de celebridades publicou as imagens de Taylor em 15 de janeiro.

Durante vários dias, o X bloqueou as buscas por Taylor Swift “com muita cautela, para que pudéssemos ter certeza de que estávamos limpando e removendo todas as imagens”, disse Joe Benarroch, chefe de operações comerciais da empresa.

Publicidade

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Comentários

Os comentários são exclusivos para assinantes do Estadão.