THE NEW YORK TIMES - LIFE/STYLE - Não seria totalmente estranho para Joe Rogan, o comediante que virou podcaster, endossar uma marca de café para homens que “aumenta a libido”.
Mas quando um vídeo circulando no TikTok recentemente mostrou Rogan e seu convidado, Andrew Huberman, vendendo o café, alguns espectadores mais observadores ficaram chocados - incluindo Huberman.
“Sim, é falso”, Huberman escreveu no Twitter depois de ver o anúncio, no qual ele parece elogiar o potencial do café de aumentar a testosterona, embora nunca tenha feito isso.
O anúncio fazia parte de um número crescente de vídeos falsos nas redes sociais feitos com tecnologia alimentada por inteligência artificial. Especialistas disseram que a voz de Rogan parece ter sido sintetizada usando ferramentas de IA que imitam vozes de celebridades. Os comentários de Huberman foram extraídos de uma entrevista não relacionada.
![](https://www.estadao.com.br/resizer/v2/PZEF3IOEBFAT7FNQPSVZ63IGDQ.jpg?quality=80&auth=1b4c2427c87442afcf4d1a642689ce164db3f82ffc90cbb406276b43c557e8c0&width=380 768w, https://www.estadao.com.br/resizer/v2/PZEF3IOEBFAT7FNQPSVZ63IGDQ.jpg?quality=80&auth=1b4c2427c87442afcf4d1a642689ce164db3f82ffc90cbb406276b43c557e8c0&width=768 1024w, https://www.estadao.com.br/resizer/v2/PZEF3IOEBFAT7FNQPSVZ63IGDQ.jpg?quality=80&auth=1b4c2427c87442afcf4d1a642689ce164db3f82ffc90cbb406276b43c557e8c0&width=1200 1322w)
Fazer vídeos falsos realistas, muitas vezes chamados de deepfakes, já exigiu um software elaborado para colocar o rosto de uma pessoa no rosto de outra. Mas agora, muitas das ferramentas para criá-los estão disponíveis para os consumidores comuns - até mesmo em aplicativos de smartphones, e muitas vezes por pouco ou nenhum dinheiro.
Os novos vídeos alterados - principalmente, até agora, fruto do trabalho de criadores de memes e profissionais de marketing - se tornaram virais em redes sociais como TikTok e Twitter. O conteúdo que eles produzem, às vezes chamado de cheapfakes pelos pesquisadores, funciona clonando vozes de celebridades, alterando os movimentos da boca para corresponder ao áudio alternativo e escrevendo diálogos persuasivos.
Os vídeos e a tecnologia acessível por trás deles deixaram alguns pesquisadores de IA preocupados com seus perigos e levantaram novas preocupações sobre se as empresas de mídia social estão preparadas para moderar a crescente falsificação digital.
Os vigilantes da desinformação também estão se preparando para uma onda de falsificações digitais que podem enganar os espectadores ou tornar mais difícil saber o que é verdadeiro ou falso online.
“O que é diferente é que todos podem fazer isso agora”, disse Britt Paris, professor assistente de Biblioteconomia e Ciência da Informação na Rutgers University, que ajudou a cunhar o termo “cheapfakes”. “Não são apenas pessoas com tecnologia computacional sofisticada e know-how computacional bastante elaborado. É um aplicativo gratuito.”
Amostras de conteúdo manipulado circulam no TikTok e em outros lugares há anos, geralmente usando truques mais caseiros, como uma edição cuidadosa ou a troca de um clipe de áudio por outro. Em um vídeo no TikTok, a vice-presidente Kamala Harris parecia dizer que todos os hospitalizados por COVID-19 foram vacinados. Na verdade, ela disse que os pacientes não foram vacinados.
A Graphika, uma empresa de pesquisa que estuda desinformação, detectou deepfakes de notícias fictícias que contas de bots pró-China distribuíram no final do ano passado, no primeiro exemplo conhecido da tecnologia sendo usada para campanhas de influência alinhadas com o Estado.
Usuários comuns
Mas várias novas ferramentas oferecem tecnologia semelhante aos usuários comuns da internet, dando aos comediantes e partidários a chance de fazer suas próprias paródias convincentes.
No mês passado, circulou um vídeo falso mostrando o presidente Joe Biden declarando um plano nacional para a guerra entre a Rússia e a Ucrânia. O vídeo foi produzido pela equipe por trás do “Human Events Daily”, um podcast e livestream dirigido por Jack Posobiec, um influenciador de direita conhecido por espalhar teorias da conspiração.
Em um segmento explicando o vídeo, Posobiec disse que sua equipe o criou usando a tecnologia de IA. Um tuíte sobre o vídeo do The Patriot Oasis, uma conta conservadora, usou uma etiqueta de breaking news sem indicar que o vídeo era falso. O tuíte foi visto mais de 8 milhões de vezes.
![](https://www.estadao.com.br/resizer/v2/R5ZWJW6D3FB6ZMWG5PHRH6LPOQ.jpg?quality=80&auth=0ac95ce5afc60bc6f1eec195e49f950b361458a6b698dbd7c0d75ca5fa6ac81a&width=380 768w, https://www.estadao.com.br/resizer/v2/R5ZWJW6D3FB6ZMWG5PHRH6LPOQ.jpg?quality=80&auth=0ac95ce5afc60bc6f1eec195e49f950b361458a6b698dbd7c0d75ca5fa6ac81a&width=768 1024w, https://www.estadao.com.br/resizer/v2/R5ZWJW6D3FB6ZMWG5PHRH6LPOQ.jpg?quality=80&auth=0ac95ce5afc60bc6f1eec195e49f950b361458a6b698dbd7c0d75ca5fa6ac81a&width=1200 1322w)
Muitos dos videoclipes com vozes sintetizadas pareciam usar tecnologia da ElevenLabs, uma startup americana co-fundada por um ex-engenheiro do Google. Em novembro, a empresa lançou uma ferramenta de clonagem de fala que pode ser treinada para replicar vozes em segundos.
A ElevenLabs chamou a atenção no mês passado depois que o 4chan, um painel de mensagens conhecido por conteúdo racista e conspiratório, usou a ferramenta para compartilhar mensagens odiosas. Em um exemplo, os usuários do 4chan criaram uma gravação de áudio de um texto antissemita usando uma voz gerada por computador que imitava a atriz Emma Watson. A Motherboard havia relatado anteriormente sobre o uso da tecnologia de áudio pelo 4chan.
A ElevenLabs disse no Twitter que introduziria novas proteções, como limitar a clonagem de voz a contas pagas e fornecer uma nova ferramenta de detecção de IA. Mas os usuários do 4chan disseram que criariam sua própria versão da tecnologia de clonagem de voz usando um código-fonte aberto, postando demos que soam semelhantes ao áudio produzido pela ElevenLabs.
Especialistas que estudam a tecnologia deepfake sugeriram que o anúncio falso com Rogan e Huberman provavelmente foi criado com um programa de clonagem de voz, embora a ferramenta exata utilizada não esteja clara. O áudio de Rogan foi emendado em uma entrevista real com Huberman discutindo sobre testosterona.
Os resultados não são perfeitos. O clipe de Rogan foi retirado de uma outra entrevista publicada em dezembro com Fedor Gorst, um jogador profissional de bilhar. Os movimentos da boca de Rogan são incompatíveis com o áudio e sua voz às vezes soa artificial. Se o vídeo convenceu os usuários do TikTok, é difícil dizer: ele atraiu muito mais atenção depois que foi sinalizado por sua falsidade impressionante.
Regras
As políticas do TikTok proíbem falsificações digitais “que enganam os usuários ao distorcer a verdade dos eventos e causar danos significativos ao assunto do vídeo, a outras pessoas ou à sociedade”. Vários dos vídeos foram removidos depois que o The New York Times os sinalizou para a empresa. O Twitter também removeu alguns dos vídeos.
Os reguladores federais demoraram a responder. Uma lei federal de 2019 solicitou um relatório sobre a utilização de deepfakes por estrangeiros, exigiu que as agências governamentais notificassem o Congresso se deepfakes visassem eleições nos Estados Unidos e criou um prêmio para incentivar a pesquisa de ferramentas que pudessem detectar deepfakes.
“Não podemos esperar dois anos até que as leis sejam aprovadas”, disse Ravit Dotan, pesquisador de pós-doutorado que dirige o Collaborative AI Responsibility Lab na Universidade de Pittsburgh. “Até então, o dano pode ser muito grande. Temos uma eleição chegando aqui nos EUA. Vai ser um problema.” /TRADUÇÃO LÍVIA BUELONI GONÇALVES
The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times