EXCLUSIVO PARA ASSINANTES
Foto do(a) coluna

O Futuro dos Negócios

Opinião | 50 Tons de Erros

A difícil tarefa de treinar sistemas inteligentes e, ao mesmo tempo, sem preconceitos

PUBLICIDADE

Publicidade
Foto do author Guy  Perelmuter
Atualização:

Em 1976, a filósofa americana Judith Thomson publicou um artigo intitulado Killing, Letting Die, and The Trolley Problem (“Matando, Deixando Morrer, e o Problema do Bonde”) no qual ela discute um problema clássico de ética baseado em um trabalho de 1967 assinado pela britânica (e também filósofa) Philippa Foot. O problema em questão explora as implicações morais que diferentes atitudes irão causar em um cenário hipotético que envolve um bonde desgovernado. Nesse cenário, um bonde está descendo um trilho e vai atropelar cinco pessoas. No entanto, você tem à sua disposição uma alavanca que irá transferir o bonde para outro trilho, fazendo com que ele mate “apenas” uma pessoa. O dilema, portanto, é agir e desviar o bonde, salvando cinco vidas (mas matando uma pessoa), ou não fazer nada e permitir que o bonde continue em seu curso atual (causando cinco mortes).

PUBLICIDADE

Agora, imagine que um veículo autônomo esteja em uma rua de um centro urbano quando um grupo de pedestres repentinamente surge em seu caminho. Os sensores do carro detectam que uma colisão é iminente. Desviar o carro dos pedestres inevitavelmente irá atingir outros pedestres e potencialmente causar ferimentos (ou mesmo a morte) dos passageiros que estão no carro. Essa variante do “problema do bonde” — no qual a alavanca que um ser humano teria à sua disposição para alterar o rumo do bonde é substituída pelo algoritmo responsável por dirigir um carro autônomo — permite a exploração de diversos dilemas éticos, incluindo aqueles relacionados à inteligência artificial.

À medida em que carros autônomos se tornam mais comuns, é importante considerar como eles devem ser programados para tomar decisões éticas em situações em que vidas estão em jogo. O algoritmo que comanda o carro deve priorizar a segurança de seus passageiros ou a segurança das pessoas na estrada? A idade das pessoas que estão no carro e na rua deve ser levada em consideração? Que fatores devem ser contemplados? No caso de um acidente, quem deve ser levado a julgamento? As pessoas que estavam no carro e assumiram os riscos da jornada? Os fabricantes dos sensores ou do carro? Os programadores do sistema? Os responsáveis pelo treinamento da inteligência artificial utilizada?

Desenvolvimento de carros autônomos está ocorrendo Foto: Igor Macário/Estadão

A utilização de algum tipo de treinamento faz parte de virtualmente todos os modelos no mundo de IA — e, provavelmente, ainda irá nos acompanhar por muito tempo. Os modelos de linguagem mais modernos foram treinados com bilhões de palavras, presentes em livros, redes sociais, enciclopédias e websites, por exemplo; sistemas de reconhecimento de imagens, por sua vez, são treinados com bilhões de fotos. Em ambos os casos, o conjunto de dados utilizado durante o treinamento possui significativo impacto no resultado final, o que faz com que a seleção do conjunto de treinamento seja uma das principais preocupações de todos os envolvidos no desenvolvimento do sistema. Dados de treinamento que embutem algum tipo de viés irão gerar sistemas que perpetuam esse mesmo viés, com consequências perigosas.

Um exemplo da importância deste processo ocorreu em 2016 com Tay, um chatbot desenvolvido pela Microsoft capaz de aprender em tempo real com base nas suas interações na rede social Twitter e programado para utilizar os padrões de linguagem de uma adolescente. Em apenas 24 horas, Tay foi retirada do ar por ter se tornado racista e misógina — graças aos trolls (usuários que publicam mensagens polêmicas visando provocar respostas emocionais) que resolveram “treinar” Tay com discursos de ódio e preconceito. Outro exemplo pode ser encontrado na área de reconhecimento facial, no qual o Gender Shades project (“Projeto Tons de Gênero”), publicado em 2018 na Conferência sobre Justiça, Responsabilidade e Transparência (Conference on Fairness, Accountability, and Transparency, patrocinada pela Association for Computing Machinery) detectou que sistemas de reconhecimento facial são consistentemente menos precisos quando precisam reconhecer rostos de pessoas que não sejam de origem caucasiana.

Publicidade

Em nossa próxima coluna iremos continuar explorando o tema de ética nos sistemas baseados em IA, na qual iremos falar de temas como direitos autorais e privacidade, entre outros. Até lá.

Opinião por Guy Perelmuter

Fundador da Grids Capital e autor do livro "Futuro Presente - O mundo movido à tecnologia", vencedor do Prêmio Jabuti 2020 na categoria Ciências. É engenheiro de computação e mestre em inteligência artificial

Comentários

Os comentários são exclusivos para assinantes do Estadão.