As duas vertentes da tecnologia que mais estão em evidência hoje são a inteligência artificial (IA) e a computação quântica.
Ambas são intensamente dependentes de recursos e infraestrutura: para que uma aplicação IA funcione, além da programação envolvida (e que hoje, até, pode ser encontrada em forma aberta), é necessário um grande poder computacional e enormes bases de dados que possam servir ao treinamento ou à busca de conclusões. A computação quântica é algo bem mais críptico, exigindo ambiente específicos e muito bem controlado fisicamente. Formas de regulação para ambas estão em intenso debate.
Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde viéses e preconceitos”.
Especificamente sobre viéses, a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA numa auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA vai ainda uma grande distância.
Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “viés humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras.
Com a ‘desaprendizagem de máquina’, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera
Nesse tema, surge hoje um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desaprendizagem”, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.
Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em si não é ético nem aético.
São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “Só um deus poderá nos salvar…”
Os comentários são exclusivos para assinantes do Estadão.