PUBLICIDADE

EXCLUSIVO PARA ASSINANTES
Foto do(a) coluna

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Opinião|Inteligência artificial é a solução contra decisões preconceituosas? Leia análise

A realidade é que seres humanos tomam mais decisões machistas e racistas do que gostariam de admitir

PUBLICIDADE

Foto do author Alexandre  Chiavegatto Filho
Atualização:

Seres humanos têm um longo e persistente histórico de tomarem decisões enviesadas. Uma pesquisa realizada em Louisiana, EUA, por exemplo, evidenciou um dos principais agravantes para o aumento da pena de jovens negros: derrotas inesperadas de times de esportes locais. Esses eventos faziam com que os juízes aumentassem o tempo das penas em 7% em média no tribunal, um efeito que foi apenas estatisticamente significativo para jovens negros.

PUBLICIDADE

Pesquisas da área da saúde têm identificado decisões enviesadas humanas também contra as mulheres. Uma revisão da literatura de 2018 encontrou que mulheres com dor crônica têm uma probabilidade muito maior do que homens de receberam um diagnóstico relacionado a distúrbios mentais e, consequentemente, não terem acesso à intervenção que necessitam.

A realidade é que seres humanos tomam mais decisões machistas e racistas do que gostariam de admitir. Na grande maioria dos casos, essas decisões têm pouquíssimas repercussões negativas para quem as toma, e as tentativas de mensurá-las ou corrigi-las são praticamente nulas.

A inteligência artificial (IA), por utilizar critérios mais racionais e mensuráveis, pode ajudar a resolver esse importante problema histórico, mas enfrenta um grande desafio: seus algoritmos aprendem a partir de exemplos e, muitos deles, são provenientes dessas mesmas decisões humanas preconceituosas. Isso pode fazer com que algoritmos repitam esses padrões e aprendam a tomar decisões enviesadas assim como os humanos.

O caso mais famoso de algoritmo preconceituoso é o que resultou na denúncia da reportagem da ProPublica, em 2016, sobre o uso de dados de reincidência de prisão para predizer o risco de crimes futuros, com o objetivo de auxiliar juízes sobre a concessão de liberdade condicional. O problema desses dados é que pessoas negras são o grupo mais visado pela polícia dos EUA e, portanto, são mais presas mesmo quando cometem o mesmo crime que pessoas brancas, levando o algoritmo a dar riscos consistentemente maiores para esse grupo. Após as denúncias, novas versões desses algoritmos foram desenvolvidas para contornar esse viés histórico.

Publicidade

Uma área científica em grande crescimento nos últimos anos é a do desenvolvimento de algoritmos explicáveis e auditáveis. Por serem um conjunto de funções matemáticas, ferramentas de IA utilizadas em dados tabulares podem ser analisadas em seus detalhes, fornecendo informações sobre as taxas de erro segundo gênero e raça, por exemplo, e até o motivo específico da ocorrência desses erros.

Após a identificação desses problemas, os algoritmos de IA podem ser corrigidos por meio da alteração do seu código ou de mudanças no seu banco de treinamento, um processo consideravelmente mais simples do que tentar mudar permanentemente a essência de um ser humano preconceituoso.

A inteligência artificial é hoje uma esperança para as milhões de mulheres e minorias étnicas que sofrem com decisões injustas no trabalho e no sistema de saúde ao redor do mundo. Algoritmos de IA têm o potencial de superar essa longa tradição de decisões humanas preconceituosas, mas não será um caminho fácil. Apesar de a inteligência ser artificial, o aprendizado ainda é humano.

Opinião por Alexandre Chiavegatto Filho

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Comentários

Os comentários são exclusivos para assinantes do Estadão.