THE NEW YORK TIMES – Como os especialistas alertam que imagens, áudio e vídeo gerados por inteligência artificial (IA) podem influenciar as eleições americanas no segundo semestre, a OpenAI está lançando uma ferramenta projetada para detectar conteúdo criado por seu próprio gerador de imagens popular, o DALL-E. Mas a proeminente startup de IA reconhece que essa ferramenta é apenas uma pequena parte do que será necessário para combater as chamadas deepfakes nos próximos meses e anos.
Na terça-feira 7, a OpenAI disse que compartilharia seu novo detector de deepfake com um pequeno grupo de pesquisadores de desinformação para que eles pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de melhorá-la.
“Isso é para dar início a novas pesquisas”, disse a executiva Sandhini Agarwal, pesquisadora da OpenAI que se concentra em segurança e política. “Isso é realmente necessário”.
A OpenAI disse que seu novo detector pode identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares, como Midjourney e Stability.
Como esse tipo de detector de deepfake é orientado por probabilidades, ele nunca poderá ser perfeito. Assim, como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.
Assim como os gigantes da tecnologia Google e Meta, a empresa está participando do comitê de direção da Coalition for Content Provenance and Authenticity, ou C2PA, um esforço para desenvolver credenciais para conteúdo digital. O padrão C2PA é uma espécie de “rótulo nutricional” para imagens, vídeos, clipes de áudio e outros arquivos que mostram quando e como eles foram produzidos ou alterados - inclusive com IA.
Leia também
A OpenAI também disse que estava desenvolvendo formas de “marca d’água” para sons gerados por IA para que pudessem ser facilmente identificados no momento. A empresa espera que essas marcas d’água sejam difíceis de remover.
Ancorado por empresas como OpenAI, Google e Meta, o setor de IA está enfrentando uma pressão cada vez maior para responder pelo conteúdo que seus produtos produzem. Os especialistas estão pedindo que o setor evite que os usuários gerem material enganoso e malicioso e ofereça maneiras de rastrear sua origem e distribuição.
Em um ano marcado por grandes eleições em todo o mundo, os apelos por formas de monitorar a linhagem do conteúdo de IA estão cada vez mais desesperados. Nos últimos meses, o áudio e as imagens já afetaram a campanha política e a votação em lugares como Eslováquia, Taiwan e Índia.
O novo detector de deepfake da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como disse a pesquisadora Agarwal: Na luta contra os deepfakes, “não há bala de prata”.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.