Fazer deepfakes fica mais barato e fácil graças à IA


Criadores de memes e vendedores de desinformação estão adotando ferramentas de inteligência artificial para criar vídeos falsos convincentes de forma barata

Por Stuart A. Thompson

THE NEW YORK TIMES - LIFE/STYLE - Não seria totalmente estranho para Joe Rogan, o comediante que virou podcaster, endossar uma marca de café para homens que “aumenta a libido”.

Mas quando um vídeo circulando no TikTok recentemente mostrou Rogan e seu convidado, Andrew Huberman, vendendo o café, alguns espectadores mais observadores ficaram chocados - incluindo Huberman.

“Sim, é falso”, Huberman escreveu no Twitter depois de ver o anúncio, no qual ele parece elogiar o potencial do café de aumentar a testosterona, embora nunca tenha feito isso.

continua após a publicidade

O anúncio fazia parte de um número crescente de vídeos falsos nas redes sociais feitos com tecnologia alimentada por inteligência artificial. Especialistas disseram que a voz de Rogan parece ter sido sintetizada usando ferramentas de IA que imitam vozes de celebridades. Os comentários de Huberman foram extraídos de uma entrevista não relacionada.

Vídeos adulterados se tornaram virais em redes sociais como TikTok e Twitter Foto: Aaron Fernandez/The New York Times

Fazer vídeos falsos realistas, muitas vezes chamados de deepfakes, já exigiu um software elaborado para colocar o rosto de uma pessoa no rosto de outra. Mas agora, muitas das ferramentas para criá-los estão disponíveis para os consumidores comuns - até mesmo em aplicativos de smartphones, e muitas vezes por pouco ou nenhum dinheiro.

continua após a publicidade

Os novos vídeos alterados - principalmente, até agora, fruto do trabalho de criadores de memes e profissionais de marketing - se tornaram virais em redes sociais como TikTok e Twitter. O conteúdo que eles produzem, às vezes chamado de cheapfakes pelos pesquisadores, funciona clonando vozes de celebridades, alterando os movimentos da boca para corresponder ao áudio alternativo e escrevendo diálogos persuasivos.

Os vídeos e a tecnologia acessível por trás deles deixaram alguns pesquisadores de IA preocupados com seus perigos e levantaram novas preocupações sobre se as empresas de mídia social estão preparadas para moderar a crescente falsificação digital.

Os vigilantes da desinformação também estão se preparando para uma onda de falsificações digitais que podem enganar os espectadores ou tornar mais difícil saber o que é verdadeiro ou falso online.

continua após a publicidade

“O que é diferente é que todos podem fazer isso agora”, disse Britt Paris, professor assistente de Biblioteconomia e Ciência da Informação na Rutgers University, que ajudou a cunhar o termo “cheapfakes”. “Não são apenas pessoas com tecnologia computacional sofisticada e know-how computacional bastante elaborado. É um aplicativo gratuito.”

Amostras de conteúdo manipulado circulam no TikTok e em outros lugares há anos, geralmente usando truques mais caseiros, como uma edição cuidadosa ou a troca de um clipe de áudio por outro. Em um vídeo no TikTok, a vice-presidente Kamala Harris parecia dizer que todos os hospitalizados por COVID-19 foram vacinados. Na verdade, ela disse que os pacientes não foram vacinados.

A Graphika, uma empresa de pesquisa que estuda desinformação, detectou deepfakes de notícias fictícias que contas de bots pró-China distribuíram no final do ano passado, no primeiro exemplo conhecido da tecnologia sendo usada para campanhas de influência alinhadas com o Estado.

continua após a publicidade

Usuários comuns

Mas várias novas ferramentas oferecem tecnologia semelhante aos usuários comuns da internet, dando aos comediantes e partidários a chance de fazer suas próprias paródias convincentes.

No mês passado, circulou um vídeo falso mostrando o presidente Joe Biden declarando um plano nacional para a guerra entre a Rússia e a Ucrânia. O vídeo foi produzido pela equipe por trás do “Human Events Daily”, um podcast e livestream dirigido por Jack Posobiec, um influenciador de direita conhecido por espalhar teorias da conspiração.

continua após a publicidade

Em um segmento explicando o vídeo, Posobiec disse que sua equipe o criou usando a tecnologia de IA. Um tuíte sobre o vídeo do The Patriot Oasis, uma conta conservadora, usou uma etiqueta de breaking news sem indicar que o vídeo era falso. O tuíte foi visto mais de 8 milhões de vezes.

Hoje é possível criar deepfakes razoavelmente convincentes a partir de aplicativos de celular Foto: Joan Mateu Parra/AP

Muitos dos videoclipes com vozes sintetizadas pareciam usar tecnologia da ElevenLabs, uma startup americana co-fundada por um ex-engenheiro do Google. Em novembro, a empresa lançou uma ferramenta de clonagem de fala que pode ser treinada para replicar vozes em segundos.

continua após a publicidade

A ElevenLabs chamou a atenção no mês passado depois que o 4chan, um painel de mensagens conhecido por conteúdo racista e conspiratório, usou a ferramenta para compartilhar mensagens odiosas. Em um exemplo, os usuários do 4chan criaram uma gravação de áudio de um texto antissemita usando uma voz gerada por computador que imitava a atriz Emma Watson. A Motherboard havia relatado anteriormente sobre o uso da tecnologia de áudio pelo 4chan.

A ElevenLabs disse no Twitter que introduziria novas proteções, como limitar a clonagem de voz a contas pagas e fornecer uma nova ferramenta de detecção de IA. Mas os usuários do 4chan disseram que criariam sua própria versão da tecnologia de clonagem de voz usando um código-fonte aberto, postando demos que soam semelhantes ao áudio produzido pela ElevenLabs.

Especialistas que estudam a tecnologia deepfake sugeriram que o anúncio falso com Rogan e Huberman provavelmente foi criado com um programa de clonagem de voz, embora a ferramenta exata utilizada não esteja clara. O áudio de Rogan foi emendado em uma entrevista real com Huberman discutindo sobre testosterona.

Os resultados não são perfeitos. O clipe de Rogan foi retirado de uma outra entrevista publicada em dezembro com Fedor Gorst, um jogador profissional de bilhar. Os movimentos da boca de Rogan são incompatíveis com o áudio e sua voz às vezes soa artificial. Se o vídeo convenceu os usuários do TikTok, é difícil dizer: ele atraiu muito mais atenção depois que foi sinalizado por sua falsidade impressionante.

Regras

As políticas do TikTok proíbem falsificações digitais “que enganam os usuários ao distorcer a verdade dos eventos e causar danos significativos ao assunto do vídeo, a outras pessoas ou à sociedade”. Vários dos vídeos foram removidos depois que o The New York Times os sinalizou para a empresa. O Twitter também removeu alguns dos vídeos.

Os reguladores federais demoraram a responder. Uma lei federal de 2019 solicitou um relatório sobre a utilização de deepfakes por estrangeiros, exigiu que as agências governamentais notificassem o Congresso se deepfakes visassem eleições nos Estados Unidos e criou um prêmio para incentivar a pesquisa de ferramentas que pudessem detectar deepfakes.

“Não podemos esperar dois anos até que as leis sejam aprovadas”, disse Ravit Dotan, pesquisador de pós-doutorado que dirige o Collaborative AI Responsibility Lab na Universidade de Pittsburgh. “Até então, o dano pode ser muito grande. Temos uma eleição chegando aqui nos EUA. Vai ser um problema.” /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

THE NEW YORK TIMES - LIFE/STYLE - Não seria totalmente estranho para Joe Rogan, o comediante que virou podcaster, endossar uma marca de café para homens que “aumenta a libido”.

Mas quando um vídeo circulando no TikTok recentemente mostrou Rogan e seu convidado, Andrew Huberman, vendendo o café, alguns espectadores mais observadores ficaram chocados - incluindo Huberman.

“Sim, é falso”, Huberman escreveu no Twitter depois de ver o anúncio, no qual ele parece elogiar o potencial do café de aumentar a testosterona, embora nunca tenha feito isso.

O anúncio fazia parte de um número crescente de vídeos falsos nas redes sociais feitos com tecnologia alimentada por inteligência artificial. Especialistas disseram que a voz de Rogan parece ter sido sintetizada usando ferramentas de IA que imitam vozes de celebridades. Os comentários de Huberman foram extraídos de uma entrevista não relacionada.

Vídeos adulterados se tornaram virais em redes sociais como TikTok e Twitter Foto: Aaron Fernandez/The New York Times

Fazer vídeos falsos realistas, muitas vezes chamados de deepfakes, já exigiu um software elaborado para colocar o rosto de uma pessoa no rosto de outra. Mas agora, muitas das ferramentas para criá-los estão disponíveis para os consumidores comuns - até mesmo em aplicativos de smartphones, e muitas vezes por pouco ou nenhum dinheiro.

Os novos vídeos alterados - principalmente, até agora, fruto do trabalho de criadores de memes e profissionais de marketing - se tornaram virais em redes sociais como TikTok e Twitter. O conteúdo que eles produzem, às vezes chamado de cheapfakes pelos pesquisadores, funciona clonando vozes de celebridades, alterando os movimentos da boca para corresponder ao áudio alternativo e escrevendo diálogos persuasivos.

Os vídeos e a tecnologia acessível por trás deles deixaram alguns pesquisadores de IA preocupados com seus perigos e levantaram novas preocupações sobre se as empresas de mídia social estão preparadas para moderar a crescente falsificação digital.

Os vigilantes da desinformação também estão se preparando para uma onda de falsificações digitais que podem enganar os espectadores ou tornar mais difícil saber o que é verdadeiro ou falso online.

“O que é diferente é que todos podem fazer isso agora”, disse Britt Paris, professor assistente de Biblioteconomia e Ciência da Informação na Rutgers University, que ajudou a cunhar o termo “cheapfakes”. “Não são apenas pessoas com tecnologia computacional sofisticada e know-how computacional bastante elaborado. É um aplicativo gratuito.”

Amostras de conteúdo manipulado circulam no TikTok e em outros lugares há anos, geralmente usando truques mais caseiros, como uma edição cuidadosa ou a troca de um clipe de áudio por outro. Em um vídeo no TikTok, a vice-presidente Kamala Harris parecia dizer que todos os hospitalizados por COVID-19 foram vacinados. Na verdade, ela disse que os pacientes não foram vacinados.

A Graphika, uma empresa de pesquisa que estuda desinformação, detectou deepfakes de notícias fictícias que contas de bots pró-China distribuíram no final do ano passado, no primeiro exemplo conhecido da tecnologia sendo usada para campanhas de influência alinhadas com o Estado.

Usuários comuns

Mas várias novas ferramentas oferecem tecnologia semelhante aos usuários comuns da internet, dando aos comediantes e partidários a chance de fazer suas próprias paródias convincentes.

No mês passado, circulou um vídeo falso mostrando o presidente Joe Biden declarando um plano nacional para a guerra entre a Rússia e a Ucrânia. O vídeo foi produzido pela equipe por trás do “Human Events Daily”, um podcast e livestream dirigido por Jack Posobiec, um influenciador de direita conhecido por espalhar teorias da conspiração.

Em um segmento explicando o vídeo, Posobiec disse que sua equipe o criou usando a tecnologia de IA. Um tuíte sobre o vídeo do The Patriot Oasis, uma conta conservadora, usou uma etiqueta de breaking news sem indicar que o vídeo era falso. O tuíte foi visto mais de 8 milhões de vezes.

Hoje é possível criar deepfakes razoavelmente convincentes a partir de aplicativos de celular Foto: Joan Mateu Parra/AP

Muitos dos videoclipes com vozes sintetizadas pareciam usar tecnologia da ElevenLabs, uma startup americana co-fundada por um ex-engenheiro do Google. Em novembro, a empresa lançou uma ferramenta de clonagem de fala que pode ser treinada para replicar vozes em segundos.

A ElevenLabs chamou a atenção no mês passado depois que o 4chan, um painel de mensagens conhecido por conteúdo racista e conspiratório, usou a ferramenta para compartilhar mensagens odiosas. Em um exemplo, os usuários do 4chan criaram uma gravação de áudio de um texto antissemita usando uma voz gerada por computador que imitava a atriz Emma Watson. A Motherboard havia relatado anteriormente sobre o uso da tecnologia de áudio pelo 4chan.

A ElevenLabs disse no Twitter que introduziria novas proteções, como limitar a clonagem de voz a contas pagas e fornecer uma nova ferramenta de detecção de IA. Mas os usuários do 4chan disseram que criariam sua própria versão da tecnologia de clonagem de voz usando um código-fonte aberto, postando demos que soam semelhantes ao áudio produzido pela ElevenLabs.

Especialistas que estudam a tecnologia deepfake sugeriram que o anúncio falso com Rogan e Huberman provavelmente foi criado com um programa de clonagem de voz, embora a ferramenta exata utilizada não esteja clara. O áudio de Rogan foi emendado em uma entrevista real com Huberman discutindo sobre testosterona.

Os resultados não são perfeitos. O clipe de Rogan foi retirado de uma outra entrevista publicada em dezembro com Fedor Gorst, um jogador profissional de bilhar. Os movimentos da boca de Rogan são incompatíveis com o áudio e sua voz às vezes soa artificial. Se o vídeo convenceu os usuários do TikTok, é difícil dizer: ele atraiu muito mais atenção depois que foi sinalizado por sua falsidade impressionante.

Regras

As políticas do TikTok proíbem falsificações digitais “que enganam os usuários ao distorcer a verdade dos eventos e causar danos significativos ao assunto do vídeo, a outras pessoas ou à sociedade”. Vários dos vídeos foram removidos depois que o The New York Times os sinalizou para a empresa. O Twitter também removeu alguns dos vídeos.

Os reguladores federais demoraram a responder. Uma lei federal de 2019 solicitou um relatório sobre a utilização de deepfakes por estrangeiros, exigiu que as agências governamentais notificassem o Congresso se deepfakes visassem eleições nos Estados Unidos e criou um prêmio para incentivar a pesquisa de ferramentas que pudessem detectar deepfakes.

“Não podemos esperar dois anos até que as leis sejam aprovadas”, disse Ravit Dotan, pesquisador de pós-doutorado que dirige o Collaborative AI Responsibility Lab na Universidade de Pittsburgh. “Até então, o dano pode ser muito grande. Temos uma eleição chegando aqui nos EUA. Vai ser um problema.” /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

THE NEW YORK TIMES - LIFE/STYLE - Não seria totalmente estranho para Joe Rogan, o comediante que virou podcaster, endossar uma marca de café para homens que “aumenta a libido”.

Mas quando um vídeo circulando no TikTok recentemente mostrou Rogan e seu convidado, Andrew Huberman, vendendo o café, alguns espectadores mais observadores ficaram chocados - incluindo Huberman.

“Sim, é falso”, Huberman escreveu no Twitter depois de ver o anúncio, no qual ele parece elogiar o potencial do café de aumentar a testosterona, embora nunca tenha feito isso.

O anúncio fazia parte de um número crescente de vídeos falsos nas redes sociais feitos com tecnologia alimentada por inteligência artificial. Especialistas disseram que a voz de Rogan parece ter sido sintetizada usando ferramentas de IA que imitam vozes de celebridades. Os comentários de Huberman foram extraídos de uma entrevista não relacionada.

Vídeos adulterados se tornaram virais em redes sociais como TikTok e Twitter Foto: Aaron Fernandez/The New York Times

Fazer vídeos falsos realistas, muitas vezes chamados de deepfakes, já exigiu um software elaborado para colocar o rosto de uma pessoa no rosto de outra. Mas agora, muitas das ferramentas para criá-los estão disponíveis para os consumidores comuns - até mesmo em aplicativos de smartphones, e muitas vezes por pouco ou nenhum dinheiro.

Os novos vídeos alterados - principalmente, até agora, fruto do trabalho de criadores de memes e profissionais de marketing - se tornaram virais em redes sociais como TikTok e Twitter. O conteúdo que eles produzem, às vezes chamado de cheapfakes pelos pesquisadores, funciona clonando vozes de celebridades, alterando os movimentos da boca para corresponder ao áudio alternativo e escrevendo diálogos persuasivos.

Os vídeos e a tecnologia acessível por trás deles deixaram alguns pesquisadores de IA preocupados com seus perigos e levantaram novas preocupações sobre se as empresas de mídia social estão preparadas para moderar a crescente falsificação digital.

Os vigilantes da desinformação também estão se preparando para uma onda de falsificações digitais que podem enganar os espectadores ou tornar mais difícil saber o que é verdadeiro ou falso online.

“O que é diferente é que todos podem fazer isso agora”, disse Britt Paris, professor assistente de Biblioteconomia e Ciência da Informação na Rutgers University, que ajudou a cunhar o termo “cheapfakes”. “Não são apenas pessoas com tecnologia computacional sofisticada e know-how computacional bastante elaborado. É um aplicativo gratuito.”

Amostras de conteúdo manipulado circulam no TikTok e em outros lugares há anos, geralmente usando truques mais caseiros, como uma edição cuidadosa ou a troca de um clipe de áudio por outro. Em um vídeo no TikTok, a vice-presidente Kamala Harris parecia dizer que todos os hospitalizados por COVID-19 foram vacinados. Na verdade, ela disse que os pacientes não foram vacinados.

A Graphika, uma empresa de pesquisa que estuda desinformação, detectou deepfakes de notícias fictícias que contas de bots pró-China distribuíram no final do ano passado, no primeiro exemplo conhecido da tecnologia sendo usada para campanhas de influência alinhadas com o Estado.

Usuários comuns

Mas várias novas ferramentas oferecem tecnologia semelhante aos usuários comuns da internet, dando aos comediantes e partidários a chance de fazer suas próprias paródias convincentes.

No mês passado, circulou um vídeo falso mostrando o presidente Joe Biden declarando um plano nacional para a guerra entre a Rússia e a Ucrânia. O vídeo foi produzido pela equipe por trás do “Human Events Daily”, um podcast e livestream dirigido por Jack Posobiec, um influenciador de direita conhecido por espalhar teorias da conspiração.

Em um segmento explicando o vídeo, Posobiec disse que sua equipe o criou usando a tecnologia de IA. Um tuíte sobre o vídeo do The Patriot Oasis, uma conta conservadora, usou uma etiqueta de breaking news sem indicar que o vídeo era falso. O tuíte foi visto mais de 8 milhões de vezes.

Hoje é possível criar deepfakes razoavelmente convincentes a partir de aplicativos de celular Foto: Joan Mateu Parra/AP

Muitos dos videoclipes com vozes sintetizadas pareciam usar tecnologia da ElevenLabs, uma startup americana co-fundada por um ex-engenheiro do Google. Em novembro, a empresa lançou uma ferramenta de clonagem de fala que pode ser treinada para replicar vozes em segundos.

A ElevenLabs chamou a atenção no mês passado depois que o 4chan, um painel de mensagens conhecido por conteúdo racista e conspiratório, usou a ferramenta para compartilhar mensagens odiosas. Em um exemplo, os usuários do 4chan criaram uma gravação de áudio de um texto antissemita usando uma voz gerada por computador que imitava a atriz Emma Watson. A Motherboard havia relatado anteriormente sobre o uso da tecnologia de áudio pelo 4chan.

A ElevenLabs disse no Twitter que introduziria novas proteções, como limitar a clonagem de voz a contas pagas e fornecer uma nova ferramenta de detecção de IA. Mas os usuários do 4chan disseram que criariam sua própria versão da tecnologia de clonagem de voz usando um código-fonte aberto, postando demos que soam semelhantes ao áudio produzido pela ElevenLabs.

Especialistas que estudam a tecnologia deepfake sugeriram que o anúncio falso com Rogan e Huberman provavelmente foi criado com um programa de clonagem de voz, embora a ferramenta exata utilizada não esteja clara. O áudio de Rogan foi emendado em uma entrevista real com Huberman discutindo sobre testosterona.

Os resultados não são perfeitos. O clipe de Rogan foi retirado de uma outra entrevista publicada em dezembro com Fedor Gorst, um jogador profissional de bilhar. Os movimentos da boca de Rogan são incompatíveis com o áudio e sua voz às vezes soa artificial. Se o vídeo convenceu os usuários do TikTok, é difícil dizer: ele atraiu muito mais atenção depois que foi sinalizado por sua falsidade impressionante.

Regras

As políticas do TikTok proíbem falsificações digitais “que enganam os usuários ao distorcer a verdade dos eventos e causar danos significativos ao assunto do vídeo, a outras pessoas ou à sociedade”. Vários dos vídeos foram removidos depois que o The New York Times os sinalizou para a empresa. O Twitter também removeu alguns dos vídeos.

Os reguladores federais demoraram a responder. Uma lei federal de 2019 solicitou um relatório sobre a utilização de deepfakes por estrangeiros, exigiu que as agências governamentais notificassem o Congresso se deepfakes visassem eleições nos Estados Unidos e criou um prêmio para incentivar a pesquisa de ferramentas que pudessem detectar deepfakes.

“Não podemos esperar dois anos até que as leis sejam aprovadas”, disse Ravit Dotan, pesquisador de pós-doutorado que dirige o Collaborative AI Responsibility Lab na Universidade de Pittsburgh. “Até então, o dano pode ser muito grande. Temos uma eleição chegando aqui nos EUA. Vai ser um problema.” /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.