OpenAI lança detector de desinformação para pesquisadores, mas avisa que ‘não há bala de prata’


Startup de IA também está se unindo a um esforço de todo o setor para detectar conteúdo criado com inteligência artificial

Por Cade Metz e Tiffany Hsu

THE NEW YORK TIMES – Como os especialistas alertam que imagens, áudio e vídeo gerados por inteligência artificial (IA) podem influenciar as eleições americanas no segundo semestre, a OpenAI está lançando uma ferramenta projetada para detectar conteúdo criado por seu próprio gerador de imagens popular, o DALL-E. Mas a proeminente startup de IA reconhece que essa ferramenta é apenas uma pequena parte do que será necessário para combater as chamadas deepfakes nos próximos meses e anos.

Na terça-feira 7, a OpenAI disse que compartilharia seu novo detector de deepfake com um pequeno grupo de pesquisadores de desinformação para que eles pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de melhorá-la.

“Isso é para dar início a novas pesquisas”, disse a executiva Sandhini Agarwal, pesquisadora da OpenAI que se concentra em segurança e política. “Isso é realmente necessário”.

continua após a publicidade
Escritórios da Open AI em São Francisco. A empresa disse que seu novo detector pode identificar 98,8% das imagens criadas pelo DALL-E 3, seu próprio gerador  Foto: Jim Wilson/The New York Times

A OpenAI disse que seu novo detector pode identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares, como Midjourney e Stability.

Como esse tipo de detector de deepfake é orientado por probabilidades, ele nunca poderá ser perfeito. Assim, como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.

continua após a publicidade

Assim como os gigantes da tecnologia Google e Meta, a empresa está participando do comitê de direção da Coalition for Content Provenance and Authenticity, ou C2PA, um esforço para desenvolver credenciais para conteúdo digital. O padrão C2PA é uma espécie de “rótulo nutricional” para imagens, vídeos, clipes de áudio e outros arquivos que mostram quando e como eles foram produzidos ou alterados - inclusive com IA.

A OpenAI também disse que estava desenvolvendo formas de “marca d’água” para sons gerados por IA para que pudessem ser facilmente identificados no momento. A empresa espera que essas marcas d’água sejam difíceis de remover.

continua após a publicidade

Ancorado por empresas como OpenAI, Google e Meta, o setor de IA está enfrentando uma pressão cada vez maior para responder pelo conteúdo que seus produtos produzem. Os especialistas estão pedindo que o setor evite que os usuários gerem material enganoso e malicioso e ofereça maneiras de rastrear sua origem e distribuição.

Em um ano marcado por grandes eleições em todo o mundo, os apelos por formas de monitorar a linhagem do conteúdo de IA estão cada vez mais desesperados. Nos últimos meses, o áudio e as imagens já afetaram a campanha política e a votação em lugares como Eslováquia, Taiwan e Índia.

O novo detector de deepfake da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como disse a pesquisadora Agarwal: Na luta contra os deepfakes, “não há bala de prata”.

continua após a publicidade

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES – Como os especialistas alertam que imagens, áudio e vídeo gerados por inteligência artificial (IA) podem influenciar as eleições americanas no segundo semestre, a OpenAI está lançando uma ferramenta projetada para detectar conteúdo criado por seu próprio gerador de imagens popular, o DALL-E. Mas a proeminente startup de IA reconhece que essa ferramenta é apenas uma pequena parte do que será necessário para combater as chamadas deepfakes nos próximos meses e anos.

Na terça-feira 7, a OpenAI disse que compartilharia seu novo detector de deepfake com um pequeno grupo de pesquisadores de desinformação para que eles pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de melhorá-la.

“Isso é para dar início a novas pesquisas”, disse a executiva Sandhini Agarwal, pesquisadora da OpenAI que se concentra em segurança e política. “Isso é realmente necessário”.

Escritórios da Open AI em São Francisco. A empresa disse que seu novo detector pode identificar 98,8% das imagens criadas pelo DALL-E 3, seu próprio gerador  Foto: Jim Wilson/The New York Times

A OpenAI disse que seu novo detector pode identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares, como Midjourney e Stability.

Como esse tipo de detector de deepfake é orientado por probabilidades, ele nunca poderá ser perfeito. Assim, como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.

Assim como os gigantes da tecnologia Google e Meta, a empresa está participando do comitê de direção da Coalition for Content Provenance and Authenticity, ou C2PA, um esforço para desenvolver credenciais para conteúdo digital. O padrão C2PA é uma espécie de “rótulo nutricional” para imagens, vídeos, clipes de áudio e outros arquivos que mostram quando e como eles foram produzidos ou alterados - inclusive com IA.

A OpenAI também disse que estava desenvolvendo formas de “marca d’água” para sons gerados por IA para que pudessem ser facilmente identificados no momento. A empresa espera que essas marcas d’água sejam difíceis de remover.

Ancorado por empresas como OpenAI, Google e Meta, o setor de IA está enfrentando uma pressão cada vez maior para responder pelo conteúdo que seus produtos produzem. Os especialistas estão pedindo que o setor evite que os usuários gerem material enganoso e malicioso e ofereça maneiras de rastrear sua origem e distribuição.

Em um ano marcado por grandes eleições em todo o mundo, os apelos por formas de monitorar a linhagem do conteúdo de IA estão cada vez mais desesperados. Nos últimos meses, o áudio e as imagens já afetaram a campanha política e a votação em lugares como Eslováquia, Taiwan e Índia.

O novo detector de deepfake da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como disse a pesquisadora Agarwal: Na luta contra os deepfakes, “não há bala de prata”.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES – Como os especialistas alertam que imagens, áudio e vídeo gerados por inteligência artificial (IA) podem influenciar as eleições americanas no segundo semestre, a OpenAI está lançando uma ferramenta projetada para detectar conteúdo criado por seu próprio gerador de imagens popular, o DALL-E. Mas a proeminente startup de IA reconhece que essa ferramenta é apenas uma pequena parte do que será necessário para combater as chamadas deepfakes nos próximos meses e anos.

Na terça-feira 7, a OpenAI disse que compartilharia seu novo detector de deepfake com um pequeno grupo de pesquisadores de desinformação para que eles pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de melhorá-la.

“Isso é para dar início a novas pesquisas”, disse a executiva Sandhini Agarwal, pesquisadora da OpenAI que se concentra em segurança e política. “Isso é realmente necessário”.

Escritórios da Open AI em São Francisco. A empresa disse que seu novo detector pode identificar 98,8% das imagens criadas pelo DALL-E 3, seu próprio gerador  Foto: Jim Wilson/The New York Times

A OpenAI disse que seu novo detector pode identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares, como Midjourney e Stability.

Como esse tipo de detector de deepfake é orientado por probabilidades, ele nunca poderá ser perfeito. Assim, como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.

Assim como os gigantes da tecnologia Google e Meta, a empresa está participando do comitê de direção da Coalition for Content Provenance and Authenticity, ou C2PA, um esforço para desenvolver credenciais para conteúdo digital. O padrão C2PA é uma espécie de “rótulo nutricional” para imagens, vídeos, clipes de áudio e outros arquivos que mostram quando e como eles foram produzidos ou alterados - inclusive com IA.

A OpenAI também disse que estava desenvolvendo formas de “marca d’água” para sons gerados por IA para que pudessem ser facilmente identificados no momento. A empresa espera que essas marcas d’água sejam difíceis de remover.

Ancorado por empresas como OpenAI, Google e Meta, o setor de IA está enfrentando uma pressão cada vez maior para responder pelo conteúdo que seus produtos produzem. Os especialistas estão pedindo que o setor evite que os usuários gerem material enganoso e malicioso e ofereça maneiras de rastrear sua origem e distribuição.

Em um ano marcado por grandes eleições em todo o mundo, os apelos por formas de monitorar a linhagem do conteúdo de IA estão cada vez mais desesperados. Nos últimos meses, o áudio e as imagens já afetaram a campanha política e a votação em lugares como Eslováquia, Taiwan e Índia.

O novo detector de deepfake da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como disse a pesquisadora Agarwal: Na luta contra os deepfakes, “não há bala de prata”.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES – Como os especialistas alertam que imagens, áudio e vídeo gerados por inteligência artificial (IA) podem influenciar as eleições americanas no segundo semestre, a OpenAI está lançando uma ferramenta projetada para detectar conteúdo criado por seu próprio gerador de imagens popular, o DALL-E. Mas a proeminente startup de IA reconhece que essa ferramenta é apenas uma pequena parte do que será necessário para combater as chamadas deepfakes nos próximos meses e anos.

Na terça-feira 7, a OpenAI disse que compartilharia seu novo detector de deepfake com um pequeno grupo de pesquisadores de desinformação para que eles pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de melhorá-la.

“Isso é para dar início a novas pesquisas”, disse a executiva Sandhini Agarwal, pesquisadora da OpenAI que se concentra em segurança e política. “Isso é realmente necessário”.

Escritórios da Open AI em São Francisco. A empresa disse que seu novo detector pode identificar 98,8% das imagens criadas pelo DALL-E 3, seu próprio gerador  Foto: Jim Wilson/The New York Times

A OpenAI disse que seu novo detector pode identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares, como Midjourney e Stability.

Como esse tipo de detector de deepfake é orientado por probabilidades, ele nunca poderá ser perfeito. Assim, como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.

Assim como os gigantes da tecnologia Google e Meta, a empresa está participando do comitê de direção da Coalition for Content Provenance and Authenticity, ou C2PA, um esforço para desenvolver credenciais para conteúdo digital. O padrão C2PA é uma espécie de “rótulo nutricional” para imagens, vídeos, clipes de áudio e outros arquivos que mostram quando e como eles foram produzidos ou alterados - inclusive com IA.

A OpenAI também disse que estava desenvolvendo formas de “marca d’água” para sons gerados por IA para que pudessem ser facilmente identificados no momento. A empresa espera que essas marcas d’água sejam difíceis de remover.

Ancorado por empresas como OpenAI, Google e Meta, o setor de IA está enfrentando uma pressão cada vez maior para responder pelo conteúdo que seus produtos produzem. Os especialistas estão pedindo que o setor evite que os usuários gerem material enganoso e malicioso e ofereça maneiras de rastrear sua origem e distribuição.

Em um ano marcado por grandes eleições em todo o mundo, os apelos por formas de monitorar a linhagem do conteúdo de IA estão cada vez mais desesperados. Nos últimos meses, o áudio e as imagens já afetaram a campanha política e a votação em lugares como Eslováquia, Taiwan e Índia.

O novo detector de deepfake da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como disse a pesquisadora Agarwal: Na luta contra os deepfakes, “não há bala de prata”.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Tudo Sobre

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.