IA tenta criar pessoas com visual mais ‘comum’ em 30 países, mas resultados são questionados

Imagens, criadas pelas ferramentas ChatGPT e Midjourney, trazem traços e características físicas supostamente comuns em cada país, mas trabalho gera questionamentos

PUBLICIDADE

Por Tamara Nassif e Gabriela Pereira

Depois de criar futuros bebês e vestir o Papa Francisco com um casacão branco da moda, as ferramentas de inteligência artificial (IA) de geração de imagens foram usadas, no último final de semana, para representar a pessoa “mais estereotípica” de 30 países diferentes - supostamente, a ideia era retratar a aparência física mais comuns nas nações. O trabalho foi feito por um usuário do Twitter, e as postagens viralizaram, atingindo dois milhões de visualizações na rede social.

O usuário, que se identifica como Medeiros, explicou como chegou no resultado. Primeiro, pediu ao ChatGPT a descrição física de como seriam as pessoas mais “estereotípicas” de países como Brasil, Estados Unidos, Angola e China. Depois, gerou as imagens pelo serviço Midjourney, especificando que teriam que ser feitas com o filme analógico Kodak Portra 400.

“Achei engraçado que o único país que a IA especificou que tinha que estar sorrindo foi o Brasil”, comentou Medeiros.

As imagens trazem traços e características físicas, de tom de pele a formato dos olhos, que seriam mais comuns em cada país. A brasileira (foto em destaque), por exemplo, é uma mulher parda de cabelos cacheados. O norte-americano, um homem branco obeso.

PUBLICIDADE

Os resultados, porém, foram questionados: desde a origem das informações que ajudaram a gerar as imagens até os problemas ético envolvidos em treinar inteligências artificiais a reproduzir esses padrões. “Todas da América Latina estão com traços predominantemente europeus e faltando traços indígenas”, comentou um internauta.

“Achei estranho, porque, em todos os países majoritariamente não-brancos, as pessoas foram embranquecidas”, disse outra.

São dilemas que devem ganhar ainda mais força nos próximos anos. Desde antes da popularização das ferramentas de IA, o termo “racismo algorítmico” é explorado por especialistas e reguladores. Em linhas gerais, essa linha de estudo descreve como discriminações racistas são incorporadas em algoritmos e bancos de dados que alimentam a tecnologia. O embranquecimento de pessoas pretas e amarelas é um exemplo disso.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.