OpenAI vai adicionar selo para identificar fotos geradas por IA


Mudança vai valer para todas as plataformas que usam IAs da empresa a partir de 12 de fevereiro

Por Bruna Arimathea

A OpenAI vai aderir a uma campanha mundial que visa ajudar as pessoas a saber quando uma imagem na internet é produto de inteligência artificial (IA) ou não. A partir de 12 de fevereiro, os arquivos criados pelo DALL-E, IA de geração de imagens da empresa, serão identificados com uma marca d’água.

De acordo com a empresa, o selo estará em todas as imagens na parte superior esquerda, indicando quando ela foi produzida pela IA. Além disso, os metadados da imagem também vão identificar que a foto não é verdadeira — uma medida que empresas estão adotando para o caso de as imagens serem recortadas para remover a marca d’água.

A marca vai valer para todos os arquivos gerados diretamente pelo DALL-E e pelas plataformas que usam a API da IA, como o ChatGPT, por exemplo. A ausência de identificação em imagens geradas por IA facilita a disseminação de fotos falsas e de desinformação, como foi o caso das “nudes” falsas da cantora Taylor Swift publicadas nas redes sociais em janeiro deste ano.

continua após a publicidade
Marca d'água vai ficar na parte superior das fotos geradas por IA Foto: OpenAI/Divulgação

“Acreditamos que a adoção desses métodos para estabelecer a procedência e incentivar os usuários a reconhecer esses sinais é fundamental para aumentar a confiabilidade das informações digitais”, diz a OpenAI em seu site.

A medida adotada pela OpenAI é parte da Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA, na sigla em inglês) que quer que empresas de tecnologia se esforcem para deixar mais claro para o público imagens que são produzidas com ajuda de IA. Companhias como Adobe e Microsoft já aderiram ao movimento.

A OpenAI vai aderir a uma campanha mundial que visa ajudar as pessoas a saber quando uma imagem na internet é produto de inteligência artificial (IA) ou não. A partir de 12 de fevereiro, os arquivos criados pelo DALL-E, IA de geração de imagens da empresa, serão identificados com uma marca d’água.

De acordo com a empresa, o selo estará em todas as imagens na parte superior esquerda, indicando quando ela foi produzida pela IA. Além disso, os metadados da imagem também vão identificar que a foto não é verdadeira — uma medida que empresas estão adotando para o caso de as imagens serem recortadas para remover a marca d’água.

A marca vai valer para todos os arquivos gerados diretamente pelo DALL-E e pelas plataformas que usam a API da IA, como o ChatGPT, por exemplo. A ausência de identificação em imagens geradas por IA facilita a disseminação de fotos falsas e de desinformação, como foi o caso das “nudes” falsas da cantora Taylor Swift publicadas nas redes sociais em janeiro deste ano.

Marca d'água vai ficar na parte superior das fotos geradas por IA Foto: OpenAI/Divulgação

“Acreditamos que a adoção desses métodos para estabelecer a procedência e incentivar os usuários a reconhecer esses sinais é fundamental para aumentar a confiabilidade das informações digitais”, diz a OpenAI em seu site.

A medida adotada pela OpenAI é parte da Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA, na sigla em inglês) que quer que empresas de tecnologia se esforcem para deixar mais claro para o público imagens que são produzidas com ajuda de IA. Companhias como Adobe e Microsoft já aderiram ao movimento.

A OpenAI vai aderir a uma campanha mundial que visa ajudar as pessoas a saber quando uma imagem na internet é produto de inteligência artificial (IA) ou não. A partir de 12 de fevereiro, os arquivos criados pelo DALL-E, IA de geração de imagens da empresa, serão identificados com uma marca d’água.

De acordo com a empresa, o selo estará em todas as imagens na parte superior esquerda, indicando quando ela foi produzida pela IA. Além disso, os metadados da imagem também vão identificar que a foto não é verdadeira — uma medida que empresas estão adotando para o caso de as imagens serem recortadas para remover a marca d’água.

A marca vai valer para todos os arquivos gerados diretamente pelo DALL-E e pelas plataformas que usam a API da IA, como o ChatGPT, por exemplo. A ausência de identificação em imagens geradas por IA facilita a disseminação de fotos falsas e de desinformação, como foi o caso das “nudes” falsas da cantora Taylor Swift publicadas nas redes sociais em janeiro deste ano.

Marca d'água vai ficar na parte superior das fotos geradas por IA Foto: OpenAI/Divulgação

“Acreditamos que a adoção desses métodos para estabelecer a procedência e incentivar os usuários a reconhecer esses sinais é fundamental para aumentar a confiabilidade das informações digitais”, diz a OpenAI em seu site.

A medida adotada pela OpenAI é parte da Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA, na sigla em inglês) que quer que empresas de tecnologia se esforcem para deixar mais claro para o público imagens que são produzidas com ajuda de IA. Companhias como Adobe e Microsoft já aderiram ao movimento.

A OpenAI vai aderir a uma campanha mundial que visa ajudar as pessoas a saber quando uma imagem na internet é produto de inteligência artificial (IA) ou não. A partir de 12 de fevereiro, os arquivos criados pelo DALL-E, IA de geração de imagens da empresa, serão identificados com uma marca d’água.

De acordo com a empresa, o selo estará em todas as imagens na parte superior esquerda, indicando quando ela foi produzida pela IA. Além disso, os metadados da imagem também vão identificar que a foto não é verdadeira — uma medida que empresas estão adotando para o caso de as imagens serem recortadas para remover a marca d’água.

A marca vai valer para todos os arquivos gerados diretamente pelo DALL-E e pelas plataformas que usam a API da IA, como o ChatGPT, por exemplo. A ausência de identificação em imagens geradas por IA facilita a disseminação de fotos falsas e de desinformação, como foi o caso das “nudes” falsas da cantora Taylor Swift publicadas nas redes sociais em janeiro deste ano.

Marca d'água vai ficar na parte superior das fotos geradas por IA Foto: OpenAI/Divulgação

“Acreditamos que a adoção desses métodos para estabelecer a procedência e incentivar os usuários a reconhecer esses sinais é fundamental para aumentar a confiabilidade das informações digitais”, diz a OpenAI em seu site.

A medida adotada pela OpenAI é parte da Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA, na sigla em inglês) que quer que empresas de tecnologia se esforcem para deixar mais claro para o público imagens que são produzidas com ajuda de IA. Companhias como Adobe e Microsoft já aderiram ao movimento.

A OpenAI vai aderir a uma campanha mundial que visa ajudar as pessoas a saber quando uma imagem na internet é produto de inteligência artificial (IA) ou não. A partir de 12 de fevereiro, os arquivos criados pelo DALL-E, IA de geração de imagens da empresa, serão identificados com uma marca d’água.

De acordo com a empresa, o selo estará em todas as imagens na parte superior esquerda, indicando quando ela foi produzida pela IA. Além disso, os metadados da imagem também vão identificar que a foto não é verdadeira — uma medida que empresas estão adotando para o caso de as imagens serem recortadas para remover a marca d’água.

A marca vai valer para todos os arquivos gerados diretamente pelo DALL-E e pelas plataformas que usam a API da IA, como o ChatGPT, por exemplo. A ausência de identificação em imagens geradas por IA facilita a disseminação de fotos falsas e de desinformação, como foi o caso das “nudes” falsas da cantora Taylor Swift publicadas nas redes sociais em janeiro deste ano.

Marca d'água vai ficar na parte superior das fotos geradas por IA Foto: OpenAI/Divulgação

“Acreditamos que a adoção desses métodos para estabelecer a procedência e incentivar os usuários a reconhecer esses sinais é fundamental para aumentar a confiabilidade das informações digitais”, diz a OpenAI em seu site.

A medida adotada pela OpenAI é parte da Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA, na sigla em inglês) que quer que empresas de tecnologia se esforcem para deixar mais claro para o público imagens que são produzidas com ajuda de IA. Companhias como Adobe e Microsoft já aderiram ao movimento.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.