Foto: Denis Balibouse/Reuters

Inteligência artificial

Sete vezes em que a IA foi preconceituosa

Ao longo dos anos, plataformas alimentadas por algoritmos tem demonstrado falhas graves ao lidar com temas sensíveis ou históricos

Foto: Latif Kassidi/EFE

Ajustes

Nesta semana, o Google entrou para a lista de empresas que tiveram que fazer “ajustes” nas suas IAs. O Gemini retratou negros como nazistas

Foto: Dado Ruvic/Reuters

Erros

O caso do Google, porém, é apenas mais um em que a IA errou feio na hora de gerar imagens ou comentários a partir de comandos humanos. Veja sete vezes em que a tecnologia foi preconceituosa

Foto: Reprodução/Google Fotos/@JACKYALCINE

Google Fotos

Em 2015, um usuário do Google Fotos descobriu amigos negros estavam sendo marcados pela IA como gorilas em imagens salvas na nuvem. A empresa decidiu retirar os termos “gorila”, “macaco” e “chimpanzé” da busca da plataforma

Foto: Reprodução/X/@TayandYou

Tay

O chatbot de IA “Tay”, da Microsoft, foi tirado do ar apenas um dia após o seu lançamento, depois de publicar comentários nazistas, em 2016. A IA aprendia a “falar” com usuários do Twitter, que ensinaram a máquina a se radicalizar

Foto: Mike Mareen/Adobe Stock

Amazon

A Amazon descobriu, em 2018, que uma IA de recrutamento interna estava dando preferências para homens. A gigante afirmou que o erro foi cometido porque a IA foi treinada com padrões masculinos e reverteu o algoritmo

Foto: Divulgação/X

Twitter

Usuários lotaram o Twitter em 2020 com reclamações sobre a IA dar preferência para imagens de pessoas brancas quando precisava cortar imagens na timeline. A empresa parou de fazer cortes de fotos no app

Foto: Reprodução/Reddit

Microsoft Bing

Após o lançamento do IA Bing, da Microsoft, usuários descobriram que a plataforma sugeria saudações nazistas para perguntas sobre o tema. A empresa limitou a interação com o robô até que pudesse eliminar as sugestões

Foto: Reprodução/Bulimia Project

IAs de imagem

Pesquisadores do Bulimia Project descobriram que plataformas de geração de imagem com IA como DALL-E, Stable Diffusion e Midjourney priorizaram corpos magros e brancos quando receberam um comando para idealizar a “mulher perfeita”. As empresas não responderam especificamente ao caso

Foto: Google Gemini

Gemini AI

O Google suspendeu sua recém lançada IA de geração de imagens depois que usuários identificaram erros históricos e raciais na criação de “fotos”. Em uma delas, a IA retratou um negro como um soldado nazista em 1943

Foto: Dado Ruvic/Reuters

Quer saber mais sobre inteligência artificial?

Leia mais

Texto e produção

Bruna Arimathea

Veja mais Web Stories