Na sexta-feira, dia 23, o Google anunciou a suspensão do seu novo algoritmo de inteligência artificial (IA) que gerava imagens após alguns resultados polêmicos. A ferramenta, parte do ecossistema Gemini de IA, produzia imagens com uma diversidade racial exagerada, chegando a incluir pessoas negras em pedidos de “fotos de soldados alemães de 1943″.
Esses resultados geraram a consequência esperada de inflamar a atual histeria do movimento anti-woke, liderado pelo bilionário Elon Musk, que postou furiosamente sobre o tema nos dias em que o algoritmo ainda estava disponível.
O lado positivo dessa polêmica foi ter trazido à tona mais uma vez o debate sobre como conseguir alinhar os modelos de linguagem de grande porte (LLMs, em inglês) de acordo com os valores e a moralidade humana. Trata-se de um desafio especialmente difícil para uma tecnologia que aprende com a informação disponível na internet.
Há muito tempo que pesquisadores de IA sabem que a internet possui um forte viés preconceituoso. Apesar da tendência de queda dos comentários racistas e homofóbicos, outras áreas têm crescido, como é o caso da misoginia do movimento red pill, composto por homens que gostam de tomar Campari e culpar mulheres pelos seus fracassos.
Está claro que é necessário frear essa inclinação de os algoritmos replicarem o conteúdo preconceituoso dos humanos. Entretanto, existe o risco de os algoritmos se tornarem tão politicamente corretos que passem a disseminar informação caricaturalmente falsa. Encontrar esse ponto de equilíbrio não é uma tarefa fácil.
A justificativa do Google para os problemas do Gemini foi que houve um erro no ajuste do algoritmo que se agravou com o tempo, além de uma falha da equipe de segurança de detectar a presença desses problemas. A gigante do Vale do Silício em seu comunicado também mencionou sobre as dificuldades de alinhar as LLMs com a atual tecnologia disponível e que está trabalhando para resolver o problema.
A realidade é que nem os próprios humanos concordam sobre os seus valores morais. Um estudo publicado em 2022, analisou a opinião de 27.502 pessoas de 45 países para o clássico dilema do bondinho e encontrou variabilidades consideráveis entre os países. Segundo os autores, alguns fatores apresentaram um impacto universal nas decisões dos participantes, independentemente da cultura local em que viviam.
Os algoritmos de IA têm o potencial de diminuírem preconceitos humanos em diversas áreas, como na contratação de funcionários, nas decisões médicas, na falta de diversidade de expressões culturais, entre muitas outras. Mas infelizmente eles ainda dependem dos dados humanos para aprenderem sobre o mundo. Corrigir os algoritmos é a parte mais fácil.
Os comentários são exclusivos para assinantes do Estadão.