THE WASHINGTON POST - Recentemente, pessoas experimentando com programas de criação de imagens por inteligência artificial (IA) criaram representações falsas de Donald Trump sendo preso e do papa Francisco desfilando um casaco estiloso. Além disso, imagens geradas por IA mostravam o que parecia ser o presidente francês Emmanuel Macron encurralado no meio de um protesto.
A tecnologia impulsionada pela IA está ajudando as pessoas a criar imagens, vídeos e áudios falsos que estão se tornando cada vez mais difíceis de se distinguir da realidade. Embora seja bastante difícil, confira cinco dicas para tentar descobrir se uma imagem é uma falsificação gerada por IA.
1. Dê uma olhada nas mãos.
Os softwares de IA tem um histórico de criar mãos humanas com dedos demais ou outras excentricidades. A tecnologia está começando a melhorar isso, mas com frequência ainda há falhas.
Na imagem falsa do papa Francisco, por exemplo, a mão direita dele parece esmagada, e o mesmo acontece com a embalagem de café que ele está segurando. Dando uma rápida analisada, você pode perceber que há algo de errado com esses detalhes.
2. Os objetos inanimados podem apresentar falhas.
Os softwares de IA, inclusive o Midjourney – que foi usado para criar as imagens do papa vestindo um casaco e da prisão de Trump –, podem gerar objetos que contrariam a realidade.
Para detectar isso, foque em itens de uma imagem como óculos, cercas ou bicicletas.
Algumas pessoas com olhos de lince notaram que, na imagem falsa do papa Francisco, o tradicional colar com crucifixo em torno do pescoço dele mostrava a corrente apenas de um lado.
As imagens de pessoas geradas por computador podem mostrar um brinco faltando ou as pernas dos óculos não combinando com o restante do objeto. Essas falhas eram mais evidentes nas gerações anteriores, mas essas distorções ainda surgem.
Equipamentos também podem ser complicados para a IA. O jornalista Luke Bailey tuitou imagens de monociclos gerados por IA que apresentavam falhas absurdas.
3. Existe texto distorcido?
Caso esteja se perguntando se uma imagem foi feita com IA, verifique as palavras em objetos como placas de rua ou outdoors.
Bailey também mostrou uma imagem gerada por IA do príncipe Harry segurando uma embalagem do Mcdonald’s. O logotipo da rede de restaurantes parecia realista, mas o texto na embalagem eram rabiscos sem sentido.
4. Analise o cenário de fundo
As imagens geradas por IA podem ter detalhes desfocados ou distorcidos, principalmente no cenário de fundo. Em uma das imagens falsas com Trump, os rostos dos policiais pareciam desfocados ou desfigurados. Em outra, os olhos dos falsos policiais criados pela IA davam a impressão de estar olhando na direção errada.
5. As imagens têm um brilho exagerado ou parecem artísticas demais?
Algumas imagens geradas por IA de pessoas reais parecem estilizadas de forma chamativa ou retratam pessoas com rostos que parecem de cera.
O rosto do papa Francisco gerado pela IA tinha um “brilho estético”, disse Henry Ajder, especialista em mídia manipulada ou criada. “O software de IA suaviza os rostos um pouco demais e faz com que eles pareçam brilhantes demais.”
Vai se tornar mais difícil para se identificar as imagens de pessoas geradas por IA ou photoshopadas conforme a tecnologia da IA avança. Ajder advertiu que essas dicas para detectar imagens criadas com IA podem ficar desatualizadas em breve. “Em semanas, essas falhas podem deixar de existir nesses modelos”, disse ele.
Conclusão: é irresponsável tratar as falsificações com IA como o fim do mundo.
Imagens falsas não são novidade. Por mais de uma década, por exemplo, uma imagem falsa de um tubarão supostamente nadando em ruas inundadas de uma cidade circularam inúmeras vezes durante furacões ou outras tempestades.
Mas é assustador que os softwares de IA ofereçam a quase qualquer pessoa a capacidade de produzir em série imagens de aparência convincente em minutos.
O nosso desafio consiste em lidar com os riscos das falsificações com IA nem com preocupação de menos, nem com preocupação demais a ponto de criar um pânico que dá a sensação de ele já ser realidade.
Os pesquisadores falam de um fenômeno conhecido como o “dividendo do mentiroso”: quanto mais acreditarmos que aquilo que vemos e ouvimos é falso, mais corremos o risco de não acreditar na autenticidade de qualquer coisa. Esta desconfiança orwelliana é o que os governos autoritários adoram. Devemos resistir a isso.
Também é importante reconhecer que as falsificações vão fazer parte de nossas vidas para sempre. São, em parte, um sintoma da nossa desconfiança mútua e dos nossos medos.
Claire Wardle, cofundadora do Information Futures Lab, da Universidade Brown, diz que está animada com o fato de relativamente poucas pessoas parecerem ter acreditado que as imagens de Trump geradas pela IA eram reais.
Ela afirma que isso mostra como muitos de nós aprendemos a discernir o que vemos online e procurar por confirmações. Claire disse ter visto comentários no Twitter de pessoas dizendo que se as imagens da prisão de Trump fossem reais, a informação teria sido publicada em sites de notícias convencionais.
“É fácil acabar no caminho de que isso é o fim do mundo, mas, na verdade, acho que somos mais espertos do que pensamos”, disse Claire./TRADUÇÃO DE ROMINA CÁCIA