YouTube vai obrigar usuários a identificar vídeos feitos com inteligência artificial


Criadores precisam declarar se conteúdo manipula pessoa, evento ou lugar

Por Henrique Sampaio

O YouTube passou a exigir dos criadores a inclusão de um aviso na publicação de conteúdos realistas feitos com inteligência artificial (IA). A intenção da plataforma é evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.

Agora, durante a publicação de vídeos, o criador é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu. Ao selecionar sim, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em questão.

Criadores precisam declarar se conteúdo no YouTube manipula pessoa, evento ou lugar Foto: Dado Ruvid/Reuters Foto: Dado Ruvic/Reuters
continua após a publicidade

O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo. Contudo, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.

A medida, que foi implementada nesta segunda-feira, 18, foi originalmente anunciada em novembro de 2023 na forma de uma atualização das políticas do YouTube para conteúdos baseados em IA. Vídeos gerados por IA mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.

continua após a publicidade

Outro recurso mencionado em novembro mas que ainda não foi implementado na última atualização da plataforma é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.

O YouTube passou a exigir dos criadores a inclusão de um aviso na publicação de conteúdos realistas feitos com inteligência artificial (IA). A intenção da plataforma é evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.

Agora, durante a publicação de vídeos, o criador é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu. Ao selecionar sim, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em questão.

Criadores precisam declarar se conteúdo no YouTube manipula pessoa, evento ou lugar Foto: Dado Ruvid/Reuters Foto: Dado Ruvic/Reuters

O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo. Contudo, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.

A medida, que foi implementada nesta segunda-feira, 18, foi originalmente anunciada em novembro de 2023 na forma de uma atualização das políticas do YouTube para conteúdos baseados em IA. Vídeos gerados por IA mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.

Outro recurso mencionado em novembro mas que ainda não foi implementado na última atualização da plataforma é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.

O YouTube passou a exigir dos criadores a inclusão de um aviso na publicação de conteúdos realistas feitos com inteligência artificial (IA). A intenção da plataforma é evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.

Agora, durante a publicação de vídeos, o criador é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu. Ao selecionar sim, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em questão.

Criadores precisam declarar se conteúdo no YouTube manipula pessoa, evento ou lugar Foto: Dado Ruvid/Reuters Foto: Dado Ruvic/Reuters

O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo. Contudo, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.

A medida, que foi implementada nesta segunda-feira, 18, foi originalmente anunciada em novembro de 2023 na forma de uma atualização das políticas do YouTube para conteúdos baseados em IA. Vídeos gerados por IA mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.

Outro recurso mencionado em novembro mas que ainda não foi implementado na última atualização da plataforma é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.