Conforme discutimos em uma coluna anterior, o desenvolvimento de programas de computador foi, durante décadas, baseado na equação “regras + dados = respostas”. Ou seja, as regras eram informadas previamente, os dados de entrada eram processados e uma resposta era produzida. Imagine, por exemplo, um programa que organize em ordem alfabética uma série de palavras: os dados recebidos (um conjunto de palavras) serão organizados de acordo com uma regra conhecida (a ordem alfabética, começando na letra ‘a’ e indo até a letra ‘z’), e uma resposta será produzida (a lista de palavras ordenada).
Leia mais sobre inteligência artificial
Já o paradigma utilizado por sistemas baseados em deep learning é substancialmente distinto, e procura imitar a forma como seres humanos aprendem: “dados + respostas = regras”. Uma vez que um conjunto suficientemente grande de exemplos (“dados”) seja apresentado com suas respectivas classificações (“respostas”), o sistema obtém uma representação interna das regras – e passa a ser capaz de extrapolar as respostas para dados que nunca viu antes. Imagine, por exemplo, que você queira implementar um programa que seja capaz de reconhecer imagens de diferentes tipos de animais. Utilizando modelos de programação “tradicionais” é virtualmente impossível atingir este objetivo — porém, apresentando-se um vasto número de imagens com fotos de diversos tipos de animais e “ensinando” o algoritmo o quê cada imagem representa, o sistema “aprende” a diferenciar e a classificar os exemplos. Com isso, o programa é capaz de extrapolar seu conhecimento e classificar imagens que não foram utilizadas em seu treinamento.

A grande questão é que a forma como esse conhecimento é adquirido e armazenado não permite um “rastreamento” do processo de classificação. Em outras palavras, se no paradigma original de programação cada etapa é passível de ser auditada e explicada — pois todos os programas operam com regras conhecidas — no mundo da inteligência artificial a forma como as máquinas aprendem e extrapolam o seu conhecimento é compreendida, porém não é passível de ser auditada.
No caso de uma rede neural artificial (base para os sistemas de deep learning), seu funcionamento interno não é transparente, o que significa que embora as entradas e saídas possam ser observadas e analisadas, os processos internos que levam a essas saídas não são facilmente acessíveis. Essa falta de transparência pode ser preocupante, especialmente em aplicações em que responsabilidade, imparcialidade e interpretabilidade são fundamentais. É por isso que existe um interesse crescente no desenvolvimento de técnicas de “IA explicável” (XAI - Explainable Artificial Intelligence), que visam fornecer informações sobre o funcionamento interno dos sistemas de IA, esclarecendo como a “caixa preta” chega às suas decisões e permitindo assim que usuários possam entender e confiar nos resultados gerados. Provavelmente não é por acaso que o nome da mais nova empresa de Elon Musk (Tesla, SpaceX) seja justamente “xAI”.
Musk, o cofundador da Apple Steve Wozniak, o cientista e autor Gary Marcus e mais de trinta mil pessoas até agora (incluindo engenheiros da DeepMind, Google, Meta e Microsoft) assinaram uma carta aberta em março deste ano, sugerindo uma “pausa de seis meses no desenvolvimento de sistemas mais poderosos que o GPT-4″. A carta propõe que laboratórios e especialistas usem essa pausa para desenvolver e implementar protocolos de segurança para permitir que os sistemas baseados em inteligência artificial sejam rigorosamente auditados e supervisionados por “especialistas externos independentes”.
Como qualquer outra ferramenta — e não devemos nos esquecer que, por mais sofisticada que seja, a IA ainda é uma ferramenta — o uso inadequado pode levar a consequências desastrosas, como a manipulação da opinião pública por meio de deep fakes, a disseminação de desinformação para incitar a violência ou difamar indivíduos, a erosão da confiança na mídia e o potencial comprometimento do estado democrático de direito. Essas preocupações são parte da motivação que levou milhares de pessoas a assinarem o pedido pela pausa nas pesquisas e desenvolvimento da tecnologia.
Mas, na prática, como interromper um movimento que pode trazer benefícios significativos em tantas áreas do conhecimento, como saúde, sustentabilidade, transportes e manufatura? Será que não faz mais sentido desenvolver estruturas éticas robustas e mecanismos regulatórios que orientem o desenvolvimento e a implantação responsável da IA, mitigando seus riscos e capitalizando seu potencial transformador? O fato é que neste momento da história da civilização a inteligência artificial é uma inevitabilidade. Mais do que isso, é uma tecnologia de propósito geral — nosso assunto da próxima coluna. Até lá.