A popularização do uso de sistemas baseados em Inteligência Artificial em diversas áreas de negócios aumentou ainda mais a importância de sermos capazes de compreender como determinadas decisões foram tomadas — em outras palavras, é necessário entender qual foi o processo de tomada de decisão utilizado para atingir determinada solução. Este é o papel da chamada “IA explicável”, ou explainable AI (XAI).
Este campo de pesquisa e desenvolvimento busca fazer com que decisões, previsões e o “raciocínio” da IA de forma geral sejam mais transparentes e passíveis de serem compreendidos por seres humanos. Em larga medida, sistemas inteligentes funcionam como uma espécie de “caixa preta”: uma vez que o treinamento do algoritmo seja completado, cada vez que apresentarmos uma entrada de dados (pergunta), iremos receber uma saída (resposta) desacompanhada de uma explicação. Geralmente os elementos que levaram o sistema a fornecer aquela resposta não ficam disponíveis para os usuários finais — e isso começa a se tornar um problema relevante em múltiplas áreas, tais como a medicina, direito, finanças, veículos autônomos ou atendimento ao cliente.
Possivelmente o maior benefício a ser obtido com avanços na área de XAI está no aumento da confiança que nós, seres humanos, iremos depositar nas máquinas. Se, por exemplo, um algoritmo for capaz de explicar as razões que o levaram a recomendar determinado tratamento clínico, os profissionais de saúde ficarão mais seguros em confiar naquela sugestão. Da mesma maneira, se um sistema inteligente for capaz de explicar como chegou a determinada conclusão sobre a concessão (ou não) de um empréstimo a um cliente, o analista financeiro poderá avaliar este “raciocínio” de forma mais objetiva. Qualquer modelo que consiga articular o passo-a-passo de sua lógica torna-se, quase que instantaneamente, mais simples de ser corrigido, validado, avaliado e aperfeiçoado.
Da mesma maneira que certas linguagens de programação precisaram demonstrar matematicamente sua correção e robustez antes de serem usadas em sistemas críticos — como, por exemplo, sistemas para o controle de usinas nucleares ou programas embarcados em dispositivos médicos — é muito provável que a “explicabilidade” de sistemas baseados em Inteligência Artificial irá se tornar um requisito legal. Atualmente, um debate em torno da GDPR (General Data Protection Regulation, ou “Regulamento Geral de Proteção de Dados”), sobre o “direito à explicação” para decisões tomadas por algoritmos ainda não está pacificado, mas tudo indica que quanto mais os sistemas inteligentes se difundirem, maior será a necessidade de aumento de transparência.
Quando o tema é ética, algoritmos inteligentes “explicáveis” podem avançar a discussão de forma significativa. A presença do viés em alguns sistemas devido a seus respectivos conjuntos de treinamento — assunto que já discutimos em uma de nossas últimas colunas — pode ser corrigida. As causas de eventuais erros que sejam cometidos — como, por exemplo, um diagnóstico impreciso — também podem ser identificadas e ajustadas. A tão desejada transparência operacional de sistemas baseados em IA poderia, finalmente, ser alcançada.
Há diversos tipos de técnicas em estudo no ramo da XAI: post-hoc (“depois do fato”), independente do modelo (model agnostic), de visualização, por certificação e validação, por inspeção do modelo, entre outras. Ainda é necessário avançar significativamente neste campo de estudo, mas o sucesso na XAI deve viabilizar aquele que parece ser o modelo ideal do uso da tecnologia: a combinação das melhores características da máquina e do ser humano. Combinando a capacidade analítica, a intuição, o bom senso e a flexibilidade das pessoas com a velocidade, objetividade, memória e capacidade de processamento das máquinas, os “centauros” — meio ser humano, meio máquina — realmente combinam o melhor dos dois mundos. Essa combinação — que deve permear basicamente todas as áreas de negócios ao redor do mundo — será o tema da nossa próxima coluna. Até lá.
Os comentários são exclusivos para assinantes do Estadão.