A OpenAI vai aderir a uma campanha mundial que visa ajudar as pessoas a saber quando uma imagem na internet é produto de inteligência artificial (IA) ou não. A partir de 12 de fevereiro, os arquivos criados pelo DALL-E, IA de geração de imagens da empresa, serão identificados com uma marca d’água.
De acordo com a empresa, o selo estará em todas as imagens na parte superior esquerda, indicando quando ela foi produzida pela IA. Além disso, os metadados da imagem também vão identificar que a foto não é verdadeira — uma medida que empresas estão adotando para o caso de as imagens serem recortadas para remover a marca d’água.
A marca vai valer para todos os arquivos gerados diretamente pelo DALL-E e pelas plataformas que usam a API da IA, como o ChatGPT, por exemplo. A ausência de identificação em imagens geradas por IA facilita a disseminação de fotos falsas e de desinformação, como foi o caso das “nudes” falsas da cantora Taylor Swift publicadas nas redes sociais em janeiro deste ano.
“Acreditamos que a adoção desses métodos para estabelecer a procedência e incentivar os usuários a reconhecer esses sinais é fundamental para aumentar a confiabilidade das informações digitais”, diz a OpenAI em seu site.
A medida adotada pela OpenAI é parte da Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA, na sigla em inglês) que quer que empresas de tecnologia se esforcem para deixar mais claro para o público imagens que são produzidas com ajuda de IA. Companhias como Adobe e Microsoft já aderiram ao movimento.