Existem poucos consensos entre pesquisadores de inteligência artificial (IA). Um deles é que eventualmente será possível desenvolver um algoritmo que conseguirá tomar decisões melhores do que humanos em todas as áreas, a Inteligência Artificial Geral (IAG).
Esse algoritmo terá a capacidade de se auto-aprimorar, podendo mudar o seu código para se tornar cada vez mais inteligente e ultrapassando em várias ordens de magnitude a capacidade cognitiva de seres humanos, um momento conhecido na área como a Singularidade.
As consequências práticas da chegada dessa IAG são imprevisíveis, primeiramente porque nós humanos não somos inteligentes o suficiente para antecipar detalhadamente as suas possíveis motivações. Aqui começam as principais divergências atuais entre os pesquisadores de inteligência artificial.
Dos três principais pioneiros de IA e vencedores do prêmio Turing de 2018, Geoffrey Hinton, Yoshua Bengio e Yann Lecun, apenas o último está otimista com a chegada da IAG. O cientista-chefe de IA da Meta acha que uma superinteligência não terá necessariamente ambições destrutivas ou de poder, assim como muitos serem biológicos não possuem, e caso tenha será possível controlar e direcionar seus impulsos maliciosos.
Yoshua Bengio e Geoffrey Hinton estão menos otimistas. O primeiro considera que por mais que os algoritmos atuais não possuam riscos existenciais, os avanços dos próximos anos podem levar a consequências catastróficas. Hinton, por sua vez, tem declarado que o risco existencial de IA é um problema ainda mais urgente do que as mudanças climáticas.
A realidade é que já não é mais possível parar a marcha do desenvolvimento da superinteligência. Caso os países desenvolvidos se comprometam a diminuir a velocidade dos avanços recentes na área, nada garante que ditaduras e regimes fundamentalistas farão o mesmo, com consequências potencialmente desastrosas.
A solução virá do próprio desenvolvimento técnico e científico da área. Com a chegada de mais pesquisadores de segurança da IAG, será possível apontar os caminhos necessários para que essa futura superinteligência se comprometa com os valores morais e éticos dos seres humanos. Precisamos de muitos mais pesquisadores de IA, nunca menos.
Na sexta-feira, 17, Sam Altman, CEO da OpenAI, foi demitido pelo conselho da empresa, em uma saga que durou cinco dias e terminou com a sua readmissão nesta quarta, 22. Até agora foram dadas poucas explicações sobre o motivo, mas as movimentações recentes do ex-CEO estavam sendo na direção de aumentar o tamanho da empresa e acelerar o ritmo das novas descobertas.
Como a missão da empresa é “garantir que a IAG beneficie toda a humanidade”, circulam rumores na imprensa dos EUA de que o motivo havia sido a pouca atenção que Altman estava dando aos riscos de uma IAG. Essa possibilidade, por menor que seja, é assustadora. Ainda não estamos prontos para a chegada da superinteligência artificial.