Imagens da catástrofe no RS criadas por IA alteram percepção da realidade, dizem especialistas

Compartilhamento de cenas da tragédia geradas por inteligência artificial impulsionam desinformação; veja o que dizem pesquisadores entrevistados pelo ‘Verifica’

PUBLICIDADE

Foto do author Gabriel Belic
Foto do author Giovana Frioli

Desde o início da catástrofe ambiental no Rio Grande do Sul, viralizaram imagens falsas com indícios de geração por meio de Inteligência Artificial (IA). Há nítidos sinais de que essas fotografias não são autênticas, como pessoas e objetos borrados ou desconfigurados, com proporções irrealistas e iluminação antinatural.

PUBLICIDADE

Exemplos de imagens desmentidas pelo Estadão Verifica incluem uma foto que mostraria centenas de corpos no Rio Grande do Sul após o nível da água das enchentes diminuir. O núcleo de checagem do Estadão também mostrou que uma foto de um helicóptero da Havan em resgate nas enchentes do Sul é falsa.

Existem várias plataformas de geração de imagens com inteligência artificial que permitem a criação de conteúdos fotorrealistas que enganam internautas. Especialistas consultados pelo Estadão Verifica comentam sobre a forma que o uso dessas ferramentas pode alterar a percepção da realidade e sobre a responsabilidade de quem divulga as imagens criadas artificialmente. Leia abaixo.

Imagens da catástrofe no RS criadas por IA podem alterar percepção da realidade, dizem especialistas Foto: Redes Sociais/Reprodução

Representações explícitas da catástrofe

As áreas atingidas pelas enchentes no Rio Grande do Sul são percorridas por drones, barcos, aviões e helicópteros. Imagens dos locais atingidos são frequentemente publicadas pela imprensa, órgãos oficiais, equipes de resgate ou mesmo pelas vítimas e voluntários.

Publicidade

Mesmo com a abundância de fotos reais capturadas nas áreas afetadas, circulam nas redes sociais mídias geradas por inteligência artificial que mostram inúmeras situações: corpos boiando, famílias desabrigadas, cenas de resgate. Os casos retratados passam a ser reais para algumas pessoas, que não conseguem distinguir que as cenas foram criadas pela tecnologia.

A professora Cristina Godoy, líder do grupo Direito, Ética e Inteligência Artificial da Universidade de São Paulo (USP), avalia que a IA tem potencial para impactar a noção das pessoas sobre o contexto real da catástrofe. “As imagens e áudios produzidos estão cada vez mais realistas”, afirmou. “Isso pode gerar uma dificuldade das pessoas de distinguirem o que é ficção e o que é realidade. As imagens impactam muito mais do que os próprios dados ou relatórios apresentados pelo governo, isso é um problema”.

O professor Carlos Eduardo Pedreira, do Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa em Engenharia da Universidade Federal do Rio de Janeiro (COPPE/UFRJ), observa que as imagens geradas por IA também podem reproduzir estereótipos nas situações retratadas, além de alterar a percepção da dimensão da catástrofe. Isso ocorre porque a inteligência artificial usa bancos de dados de textos e imagens disponíveis na internet. “Quando existe uma situação enviesada com preconceitos, que estão presentes na sociedade, os conteúdos gerados também irão mostrar isso. A IA se alimenta do que já existe”, explicou Pedreira.

Estudos conduzidos pela Universidade da Califórnia demonstraram que as pessoas têm maior preferência por consumir conteúdos negativos e chocantes do que informações positivas, o que pode ser potencializado com a inteligência artificial. “O ser humano sempre teve muita atração por imagens impactantes de desgraças”, analisou o professor. “A novidade com a IA é a possibilidade de gerar isso em larga escala muito rápido. As ferramentas de criação estão cada vez mais eficientes, dificultando a distinção a ‘olho nu’ entre as geradas e aquelas feitas por câmeras tradicionais”.

Publicidade

De acordo com a professora Cristina, o interesse pelo compartilhamento de catástrofes ou tragédias influencia a criação de imagens em troca de engajamento. ”O objetivo é pegar um conteúdo que seja muito impressionante, postar e conseguir mais seguidores”, explicou. “Tudo isso ativa o algoritmo nas redes sociais e a sua publicação fica cada vez mais visível. A estratégia também pode ser usada para legitimar uma visão de mundo, repercutindo uma informação sem verificar se é falsa ou verdadeira apenas para comprovar uma posição”.

As cenas criadas por inteligência artificial também têm sido usadas para desinformar propositalmente e espalhar caos em meio à catástrofe. Exemplos disso são as fotos falsas de corpos boiando, que não foram registradas no Rio Grande do Sul. “Se geradas de má-fé, as imagens feitas por IA ou digitalmente manipuladas têm potencial para confundir as informações reais”, disse Pedreira. “A questão da notícia falsa é uma bola de neve e se torna ‘verdadeira’ por sua repetição”.

Os especialistas concordam que, para evitar a disseminação de desinformação, é importante que exista um processo de educação digital, em que os usuários tenham o hábito de verificar os conteúdos antes de compartilhar. “Existem algoritmos que ajudam na detecção de conteúdos falsos, porém eles exigem um conhecimento específico”, disse Cristina. “É fundamental que as pessoas na internet sejam cautelosas e analisem as informações emitidas e as imagens, a fim de detectar alguma evidência de falsidade ou geração por IA”.

A pesquisadora pontua que é importante que os conteúdos gerados artificialmente sejam compartilhados com um aviso. “É sempre muito importante as plataformas avisarem quando são imagens geradas por IA e quando não são. Se são verdadeiras, indicar as fontes e o fotógrafo responsável, por exemplo”, afirmou.

Publicidade

O Estadão Verifica publicou que é falso que a foto mostre centenas de corpos no RS após água baixar. Foto: Redes Sociais/Reprodução

PUBLICIDADE

Questionada sobre os limites éticos das empresas que geram conteúdos de IA, Cristina opina que a responsabilidade recai, na verdade, ao usuário que criou a imagem. “Vejo que a questão não é olhar para as empresas ou as aplicações que geram imagens de IA com esses eventos, mas sim aqueles que elaboram o prompt [comando] para gerar essas fotografias”, disse.

“Pensando na ética, como um ramo da filosofia moral, analisando a conduta dos indivíduos, é muito mais fácil você pensar naqueles que desenvolvem os prompts do que a empresa que fornece determinada aplicação para se produzir imagens, porque é muito difícil controlar todas as hipóteses. Então, vejo que a questão do limite ético extrapolado está muito mais em quem gera para fins de compartilhamento e maior engajamento”, complementa.

O Estadão Verifica preparou um material de dicas sobre como não se enganar com desinformação gerada por inteligência artificial nas redes sociais.

Comentários

Os comentários são exclusivos para assinantes do Estadão.