Embora a OpenAI afirme que o GPT-4, novo “cérebro” do ChatGPT, seja “limitado”, um grupo de pesquisadores em inteligência artificial (IA) da Microsoft publicou na semana passada um artigo no qual afirmam que o modelo dá sinais de ser uma forma primitiva de inteligência artificial geral (AGI, na sigla em inglês). Isso significa que os pesquisadores acreditam que o GPT-4 exibe habilidades sobre-humanas em diferentes áreas do conhecimento.
Batizado de “Fagulhas de Inteligência Artificial Geral: Primeiros Experimentos com o GPT-4″, o trabalho levanta diferentes questionamentos. O primeiro é que ele ainda está em fase de “pré-print”, ou seja, precisa ser avaliado por outros pesquisadores independentes. O segundo é que os autores da pesquisa são ligados à Microsoft, gigante que já investiu US$ 13 bilhões (e espera retorno de US$ 92 bilhões) na OpenAI - a companhia fundada por Bill Gates está inundando seus produtos com o GPT-4, como o buscador Bing.
Leia também
Até aqui, sistemas de IA são agrupados numa categoria conhecida como “inteligência artificial específica” (narrow AI, em inglês), o que significa que elas são boas em tarefas bastante restritas. Por outro lado, uma AGI significa uma classe de sistemas com excelente performance em diferentes tarefas - é algo mais próximo daquilo que a ficção científica costuma retratar. Os pesquisadores da Microsoft entendem AGI como um sistema capaz raciocinar, planejar, resolver problemas, pensar de forma abstrata, compreender ideias complexas e aprender com experiências.
“Dada a amplitude e a profundidade das habilidades do GPT-4, acreditamos que ele poderia razoavelmente ser visto como uma versão inicial (ainda que incompleta) de um sistema AGI”, afirmaram eles.
Para chegar a conclusão, eles propuseram uma série de testes. Entre eles estão criar uma prova matemática por meio de rimas de que existem infinitos números primos - o que o sistema conseguiu fazer. O GPT-4 também teve aproveitamento de 80% no exame de licença médica dos EUA e 70% na “prova da OAB” dos EUA. Também teve eficiência de 100% no teste que a Amazon aplica a desenvolvedores de software, usando quatro minutos das duas horas possíveis.
“Demonstramos que, além de dominar a linguagem, o GPT-4 pode resolver tarefas originais e difíceis, que incluem matemática, criação de código, visão, medicina, direito, psicologia e mais, sem a necessidade de comandos especiais”, diz o artigo.
Leia também
Muita calma
No artigo, porém, os autores tentam esfriar algumas possíveis fantasias de futuro distópico. “Nossa afirmação de que o GPT-4 representa um progresso em direção a uma AGI não significa que ele é perfeito naquilo que faz, nem de que chega perto de fazer aquilo que humanos podem fazer, nem de que tenha motivações e objetivos pessoais (um aspecto chave em alguma definições de AGI)”, escrevem eles.
De fato, o artigo parece contrariar Sam Altman, CEO da OpenAI, que afirmou, em entrevista antes do lançamento do GPT-4, para a jornalista Kara Swisher: “A fábrica de rumores do GPT-4 é ridícula. As pessoas estão implorando para ser desapontadas e serão. Não temos uma AGI e é esse tipo de coisa que esperam da gente”.
A Microsoft também publicou uma nota: “A Microsoft não está focada em tentar chegar a uma AGI. Nosso desenvolvimento de IA é centrado em amplificar, aumentar e assistir a cpacidade e a produtividade humana. Estamos criando as plataformas e ferramentas que, em vez de agir feito e substituir o esforço humano, podem ajudar humanos com trabalho cognitivo”.
Especialistas na área também não parecem convencidos do trabalho. Gary Marcus, da Universidade de Nova York, publicou em seu site: “Eu não acho que o GPT-4 tem conexão com AGI. Os pontos fortes e fracos do GPT-4 são qualitativamente os mesmos de antes. O problema de alucinação não foi resolvido, a confiança não foi resolvida; o planejamento de tarefas complexas não foi resolvido”. Ele foi além: “A afirmação do artigo é boba, dada que inteiramente aberta à interpretação”. E concluiu: “Devemos demandar transparência, e se não tivermos, devemo contemplar encerrar esses projetos”.
Mhairi Aitken do Instituto Alan Turing, em Londres, disse à revista New Scientist: “Tem muita gente que acredita que a AGI está chegando. Eu não compartilho desse ponto de vista. IA sempre serão programas que farão aquilo que são programados para fazer. Eles são programados para imitar a linguagem humana, e eles estão se tornando bons nisso. Então eles se tornam cada vez mais convincentes”.
Ethan Mollick, professor da Escola Wharton, da Universidade da Pensilvânia, afirmou no Twitter encarar a pesquisa com bastante ceticismo, embora “muitas pessoas sérias” estejam convencidas.
“É fácil falar em “estágio inicial da evolução”, mas a IA do GPT ainda é ‘específica’, pois domina a linguagem, mas ainda não domina ‘outras capacidades mais avançadas’ da inteligência. E para chegar no AGI, precisa bem mais que isso”, diz ao Estadão Fernando Osório, professor da USP São Carlos. “‘Spark’ é realmente uma ‘fagulha’ que está longe de chegar no domínio da energia, como a energia nuclear”, conclui.
Os comentários são exclusivos para assinantes do Estadão.