É possível identificar imagens falsas geradas por IA? Essas dicas dão uma ajuda


Disseminação de deep fakes alimenta preocupações sobre a autenticidade na era digital

Por Kelvin Chan e Ali Swenson

Aúdios, fotos e vídeos falsos gerados por inteligência artificial (IA) estão se tornando rapidamente um dos maiores problemas que enfrentamos online. Esse tipo de material está se proliferando como resultado do aumento e do uso indevido de ferramentas de inteligência artificial generativas.

Assim, está ficando cada vez mais difícil distinguir o que é real do que não é. Geradores de vídeo e imagem, como DALL-E, Midjourney e Sora da OpenAI, facilitam a criação de deep fakes por pessoas sem nenhuma habilidade técnica - basta digitar uma solicitação e o sistema a produz.

Essas imagens falsas podem parecer inofensivas. Mas elas podem ser usadas para realizar golpes e roubo de identidade ou propaganda e manipulação de eleições.

continua após a publicidade

Veja a seguir como evitar ser enganado por deep fakes:

A falsificação de IA está se tornando rapidamente um dos maiores problemas que enfrentamos on-line. Com o surgimento de deepfakes de IA quase todos os dias, retratando todos, de Taylor Swift a Donald Trump, está ficando mais difícil distinguir o que é real do que não é. O gráfico ilustrado com fotos a seguir destaca algumas áreas notáveis de um deepfake de IA do Papa Francisco Foto: AP / AP

Como fazer identificação de deep fakes

continua após a publicidade

Nos primórdios das deep fakes, a tecnologia estava longe de ser perfeita e, muitas vezes, deixava sinais evidentes de manipulação. Os verificadores de fatos apontaram imagens com erros óbvios, como mãos com seis dedos ou óculos com lentes de formatos diferentes.

Mas, com o aprimoramento da IA, isso se tornou muito mais difícil. Alguns conselhos amplamente compartilhados - como procurar padrões não naturais de piscar de olhos entre as pessoas em vídeos deepfake - não são mais válidos, diz Henry Ajder, fundador da empresa de consultoria Latent Space Advisory e um dos principais especialistas em IA generativa.

Ainda assim, há alguns aspectos a serem observados.

continua após a publicidade

Muitas fotos de deep fake, especialmente de pessoas, têm um brilho eletrônico, “um tipo estético de efeito de suavização” que deixa a pele “com uma aparência incrivelmente polida”, disse Ajder.

Ele alertou, no entanto, que o estímulo criativo às vezes pode eliminar esse e muitos outros sinais de manipulação de IA.

Verifique a consistência das sombras e da iluminação. Muitas vezes, o objeto está em foco nítido e parece convincentemente realista, mas os elementos do pano de fundo podem não ser tão realistas ou polidos.

continua após a publicidade

Observe os rostos

A troca de rostos é um dos métodos mais comuns de vídeos deep fake. Os especialistas aconselham observar atentamente as bordas do rosto. O tom de pele do rosto combina com o resto da cabeça ou do corpo? As bordas do rosto estão nítidas ou borradas?

Se você suspeitar que o vídeo de uma pessoa falando foi adulterado, observe a boca dela. Os movimentos labiais combinam perfeitamente com o áudio?

continua após a publicidade

Ajder sugere olhar para os dentes. Eles são claros ou estão borrados e, de alguma forma, não são consistentes com sua aparência na vida real?

A empresa de segurança cibernética Norton diz que os algoritmos talvez ainda não sejam sofisticados o suficiente para gerar dentes individuais, portanto, a falta de contornos para dentes individuais pode ser uma pista.

continua após a publicidade

Analise o panorama geral

Às vezes, o contexto é importante. Dê um tempo para considerar se o que você está vendo é plausível.

O site de jornalismo Poynter aconselha que, se você vir uma figura pública fazendo algo que pareça “exagerado, irrealista ou fora do personagem”, pode ser um deep fake.

Por exemplo, o papa estaria realmente usando uma jaqueta de luxo, como mostra uma famosa foto falsa? Se estivesse, não haveria outras fotos ou vídeos publicados por fontes legítimas?

Usando IA para encontrar manipulações

Outra abordagem é usar a IA para combater a IA.

A Microsoft desenvolveu uma ferramenta de autenticação que pode analisar fotos ou vídeos para dar uma pontuação de confiança sobre se eles foram manipulados. O FakeCatcher da fabricante de chips Intel usa algoritmos para analisar os pixels de uma imagem e determinar se ela é real ou falsa.

Há ferramentas online que prometem detectar falsificações se você carregar um arquivo ou colar um link para o material suspeito. Mas algumas, como o autenticador da Microsoft, estão disponíveis apenas para parceiros selecionados e não para o público. Isso se deve ao fato de que os pesquisadores não querem dar dicas aos malfeitores e dar a eles uma vantagem maior na corrida armamentista do deep fake.

O acesso aberto às ferramentas de detecção também pode dar às pessoas a impressão de que elas são “tecnologias divinas que podem terceirizar o pensamento crítico para nós” quando, em vez disso, precisamos estar cientes de suas limitações, diz Ajder.

Obstáculos para identificar falsificações

Dito isso, a IA vem avançando a uma velocidade vertiginosa e os modelos de IA estão sendo treinados com dados da internet para produzir conteúdo de qualidade cada vez mais alta e com menos falhas.

Isso significa que não há garantia de que esse conselho ainda será válido mesmo daqui a um ano.

Os especialistas dizem que pode até ser perigoso sobrecarregar as pessoas comuns para que se tornem Sherlocks digitais, pois isso pode dar a elas uma falsa sensação de confiança à medida que se torna cada vez mais difícil, mesmo para olhos treinados, detectar deep fakes.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Aúdios, fotos e vídeos falsos gerados por inteligência artificial (IA) estão se tornando rapidamente um dos maiores problemas que enfrentamos online. Esse tipo de material está se proliferando como resultado do aumento e do uso indevido de ferramentas de inteligência artificial generativas.

Assim, está ficando cada vez mais difícil distinguir o que é real do que não é. Geradores de vídeo e imagem, como DALL-E, Midjourney e Sora da OpenAI, facilitam a criação de deep fakes por pessoas sem nenhuma habilidade técnica - basta digitar uma solicitação e o sistema a produz.

Essas imagens falsas podem parecer inofensivas. Mas elas podem ser usadas para realizar golpes e roubo de identidade ou propaganda e manipulação de eleições.

Veja a seguir como evitar ser enganado por deep fakes:

A falsificação de IA está se tornando rapidamente um dos maiores problemas que enfrentamos on-line. Com o surgimento de deepfakes de IA quase todos os dias, retratando todos, de Taylor Swift a Donald Trump, está ficando mais difícil distinguir o que é real do que não é. O gráfico ilustrado com fotos a seguir destaca algumas áreas notáveis de um deepfake de IA do Papa Francisco Foto: AP / AP

Como fazer identificação de deep fakes

Nos primórdios das deep fakes, a tecnologia estava longe de ser perfeita e, muitas vezes, deixava sinais evidentes de manipulação. Os verificadores de fatos apontaram imagens com erros óbvios, como mãos com seis dedos ou óculos com lentes de formatos diferentes.

Mas, com o aprimoramento da IA, isso se tornou muito mais difícil. Alguns conselhos amplamente compartilhados - como procurar padrões não naturais de piscar de olhos entre as pessoas em vídeos deepfake - não são mais válidos, diz Henry Ajder, fundador da empresa de consultoria Latent Space Advisory e um dos principais especialistas em IA generativa.

Ainda assim, há alguns aspectos a serem observados.

Muitas fotos de deep fake, especialmente de pessoas, têm um brilho eletrônico, “um tipo estético de efeito de suavização” que deixa a pele “com uma aparência incrivelmente polida”, disse Ajder.

Ele alertou, no entanto, que o estímulo criativo às vezes pode eliminar esse e muitos outros sinais de manipulação de IA.

Verifique a consistência das sombras e da iluminação. Muitas vezes, o objeto está em foco nítido e parece convincentemente realista, mas os elementos do pano de fundo podem não ser tão realistas ou polidos.

Observe os rostos

A troca de rostos é um dos métodos mais comuns de vídeos deep fake. Os especialistas aconselham observar atentamente as bordas do rosto. O tom de pele do rosto combina com o resto da cabeça ou do corpo? As bordas do rosto estão nítidas ou borradas?

Se você suspeitar que o vídeo de uma pessoa falando foi adulterado, observe a boca dela. Os movimentos labiais combinam perfeitamente com o áudio?

Ajder sugere olhar para os dentes. Eles são claros ou estão borrados e, de alguma forma, não são consistentes com sua aparência na vida real?

A empresa de segurança cibernética Norton diz que os algoritmos talvez ainda não sejam sofisticados o suficiente para gerar dentes individuais, portanto, a falta de contornos para dentes individuais pode ser uma pista.

Analise o panorama geral

Às vezes, o contexto é importante. Dê um tempo para considerar se o que você está vendo é plausível.

O site de jornalismo Poynter aconselha que, se você vir uma figura pública fazendo algo que pareça “exagerado, irrealista ou fora do personagem”, pode ser um deep fake.

Por exemplo, o papa estaria realmente usando uma jaqueta de luxo, como mostra uma famosa foto falsa? Se estivesse, não haveria outras fotos ou vídeos publicados por fontes legítimas?

Usando IA para encontrar manipulações

Outra abordagem é usar a IA para combater a IA.

A Microsoft desenvolveu uma ferramenta de autenticação que pode analisar fotos ou vídeos para dar uma pontuação de confiança sobre se eles foram manipulados. O FakeCatcher da fabricante de chips Intel usa algoritmos para analisar os pixels de uma imagem e determinar se ela é real ou falsa.

Há ferramentas online que prometem detectar falsificações se você carregar um arquivo ou colar um link para o material suspeito. Mas algumas, como o autenticador da Microsoft, estão disponíveis apenas para parceiros selecionados e não para o público. Isso se deve ao fato de que os pesquisadores não querem dar dicas aos malfeitores e dar a eles uma vantagem maior na corrida armamentista do deep fake.

O acesso aberto às ferramentas de detecção também pode dar às pessoas a impressão de que elas são “tecnologias divinas que podem terceirizar o pensamento crítico para nós” quando, em vez disso, precisamos estar cientes de suas limitações, diz Ajder.

Obstáculos para identificar falsificações

Dito isso, a IA vem avançando a uma velocidade vertiginosa e os modelos de IA estão sendo treinados com dados da internet para produzir conteúdo de qualidade cada vez mais alta e com menos falhas.

Isso significa que não há garantia de que esse conselho ainda será válido mesmo daqui a um ano.

Os especialistas dizem que pode até ser perigoso sobrecarregar as pessoas comuns para que se tornem Sherlocks digitais, pois isso pode dar a elas uma falsa sensação de confiança à medida que se torna cada vez mais difícil, mesmo para olhos treinados, detectar deep fakes.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Aúdios, fotos e vídeos falsos gerados por inteligência artificial (IA) estão se tornando rapidamente um dos maiores problemas que enfrentamos online. Esse tipo de material está se proliferando como resultado do aumento e do uso indevido de ferramentas de inteligência artificial generativas.

Assim, está ficando cada vez mais difícil distinguir o que é real do que não é. Geradores de vídeo e imagem, como DALL-E, Midjourney e Sora da OpenAI, facilitam a criação de deep fakes por pessoas sem nenhuma habilidade técnica - basta digitar uma solicitação e o sistema a produz.

Essas imagens falsas podem parecer inofensivas. Mas elas podem ser usadas para realizar golpes e roubo de identidade ou propaganda e manipulação de eleições.

Veja a seguir como evitar ser enganado por deep fakes:

A falsificação de IA está se tornando rapidamente um dos maiores problemas que enfrentamos on-line. Com o surgimento de deepfakes de IA quase todos os dias, retratando todos, de Taylor Swift a Donald Trump, está ficando mais difícil distinguir o que é real do que não é. O gráfico ilustrado com fotos a seguir destaca algumas áreas notáveis de um deepfake de IA do Papa Francisco Foto: AP / AP

Como fazer identificação de deep fakes

Nos primórdios das deep fakes, a tecnologia estava longe de ser perfeita e, muitas vezes, deixava sinais evidentes de manipulação. Os verificadores de fatos apontaram imagens com erros óbvios, como mãos com seis dedos ou óculos com lentes de formatos diferentes.

Mas, com o aprimoramento da IA, isso se tornou muito mais difícil. Alguns conselhos amplamente compartilhados - como procurar padrões não naturais de piscar de olhos entre as pessoas em vídeos deepfake - não são mais válidos, diz Henry Ajder, fundador da empresa de consultoria Latent Space Advisory e um dos principais especialistas em IA generativa.

Ainda assim, há alguns aspectos a serem observados.

Muitas fotos de deep fake, especialmente de pessoas, têm um brilho eletrônico, “um tipo estético de efeito de suavização” que deixa a pele “com uma aparência incrivelmente polida”, disse Ajder.

Ele alertou, no entanto, que o estímulo criativo às vezes pode eliminar esse e muitos outros sinais de manipulação de IA.

Verifique a consistência das sombras e da iluminação. Muitas vezes, o objeto está em foco nítido e parece convincentemente realista, mas os elementos do pano de fundo podem não ser tão realistas ou polidos.

Observe os rostos

A troca de rostos é um dos métodos mais comuns de vídeos deep fake. Os especialistas aconselham observar atentamente as bordas do rosto. O tom de pele do rosto combina com o resto da cabeça ou do corpo? As bordas do rosto estão nítidas ou borradas?

Se você suspeitar que o vídeo de uma pessoa falando foi adulterado, observe a boca dela. Os movimentos labiais combinam perfeitamente com o áudio?

Ajder sugere olhar para os dentes. Eles são claros ou estão borrados e, de alguma forma, não são consistentes com sua aparência na vida real?

A empresa de segurança cibernética Norton diz que os algoritmos talvez ainda não sejam sofisticados o suficiente para gerar dentes individuais, portanto, a falta de contornos para dentes individuais pode ser uma pista.

Analise o panorama geral

Às vezes, o contexto é importante. Dê um tempo para considerar se o que você está vendo é plausível.

O site de jornalismo Poynter aconselha que, se você vir uma figura pública fazendo algo que pareça “exagerado, irrealista ou fora do personagem”, pode ser um deep fake.

Por exemplo, o papa estaria realmente usando uma jaqueta de luxo, como mostra uma famosa foto falsa? Se estivesse, não haveria outras fotos ou vídeos publicados por fontes legítimas?

Usando IA para encontrar manipulações

Outra abordagem é usar a IA para combater a IA.

A Microsoft desenvolveu uma ferramenta de autenticação que pode analisar fotos ou vídeos para dar uma pontuação de confiança sobre se eles foram manipulados. O FakeCatcher da fabricante de chips Intel usa algoritmos para analisar os pixels de uma imagem e determinar se ela é real ou falsa.

Há ferramentas online que prometem detectar falsificações se você carregar um arquivo ou colar um link para o material suspeito. Mas algumas, como o autenticador da Microsoft, estão disponíveis apenas para parceiros selecionados e não para o público. Isso se deve ao fato de que os pesquisadores não querem dar dicas aos malfeitores e dar a eles uma vantagem maior na corrida armamentista do deep fake.

O acesso aberto às ferramentas de detecção também pode dar às pessoas a impressão de que elas são “tecnologias divinas que podem terceirizar o pensamento crítico para nós” quando, em vez disso, precisamos estar cientes de suas limitações, diz Ajder.

Obstáculos para identificar falsificações

Dito isso, a IA vem avançando a uma velocidade vertiginosa e os modelos de IA estão sendo treinados com dados da internet para produzir conteúdo de qualidade cada vez mais alta e com menos falhas.

Isso significa que não há garantia de que esse conselho ainda será válido mesmo daqui a um ano.

Os especialistas dizem que pode até ser perigoso sobrecarregar as pessoas comuns para que se tornem Sherlocks digitais, pois isso pode dar a elas uma falsa sensação de confiança à medida que se torna cada vez mais difícil, mesmo para olhos treinados, detectar deep fakes.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.