Recentemente, em uma tarde, Tudor Achim deu um desafio para o cérebro de um bot de inteligência artificial (IA) chamado Aristotle.
A pergunta envolvia uma tabela de 10 por 10 com 100 números. Se você coletasse o menor número em cada linha e o maior número em cada coluna, ele perguntou, o maior dos números pequenos poderia ser maior do que o menor dos números grandes?
O bot respondeu corretamente “não”. Mas isso não foi surpreendente. Os chatbots populares, como o ChatGPT, também podem dar a resposta certa. A diferença era que Aristóteles havia provado que sua resposta estava certa. O bot gerou um programa de computador detalhado que verificou que “não” era a resposta correta.
Chatbots como o ChatGPT da OpenAI e o Gemini do Google podem responder a perguntas, escrever poesia, resumir artigos de notícias e gerar imagens. Mas eles também cometem erros que desafiam o senso comum. Às vezes, eles inventam coisas - um fenômeno chamado alucinação.
Achim, CEO e cofundador de uma startup do Vale do Silício chamada Harmonic, faz parte de um esforço crescente para criar um novo tipo de IA que nunca tenha alucinações. Atualmente, o foco dessa tecnologia é a matemática. Mas muitos dos principais pesquisadores acreditam que podem estender as mesmas técnicas para a programação de computadores e outras áreas.
Como a matemática é uma ciência exata com maneiras formais de provar se uma resposta está certa ou errada, empresas como a Harmonic podem criar tecnologias de IA que verificam suas próprias respostas e aprendem a produzir informações confiáveis.
O Google DeepMind, o laboratório central de IA da gigante da tecnologia, revelou recentemente um sistema chamado AlphaProof que opera dessa forma. Ao competir na Olimpíada Internacional de Matemática, a principal competição de matemática para alunos do ensino médio, o sistema obteve desempenho de “medalha de prata”, resolvendo quatro dos seis problemas da competição. Foi a primeira vez que uma máquina atingiu esse nível.
“Esse é um caminho para contornar as alucinações”, disse David Silver, principal cientista pesquisador do Google DeepMind. “A prova é uma forma de verdade.”
Usando técnicas semelhantes, alguns pesquisadores acreditam que poderão criar um sistema de IA que seja melhor em matemática do que qualquer ser humano. Esse é o objetivo de Achim e de seu cofundador, Vlad Tenev, mais conhecido como CEO da empresa de negociação de ações online Robinhood. A Harmonic levantou US$ 75 milhões em financiamento da Sequoia Capital e de outros investidores.
Outros, como o Dr. Silver, acreditam que essas técnicas podem se estender ainda mais, levando a sistemas de IA que podem verificar verdades físicas e matemáticas.
Por volta de 2017, empresas como Google, Microsoft e OpenAI começaram a criar grandes modelos de linguagem. Esses sistemas de IA geralmente passavam meses analisando textos digitais retirados de toda a internet, incluindo livros, artigos da Wikipedia e registros de bate-papo. (O New York Times processou a OpenAI e a Microsoft em dezembro por violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA).
Ao identificar padrões em todo esse texto, esses sistemas aprenderam a gerar seu próprio texto, incluindo trabalhos acadêmicos, poesia e código de computador. Eles podiam até mesmo manter uma conversa.
Mas, às vezes, a tecnologia também parecia insensata. Parecia apenas cuspir o que havia aprendido na internet - incapaz de verificar se a informação estava certa ou errada, se era real ou completamente inventada.
Este mês, a OpenAI revelou uma nova versão do ChatGPT que foi projetada para raciocinar por meio de perguntas. Ele passa um tempo “pensando”, tentando diferentes estratégias em um esforço para chegar à resposta certa. Mas ele ainda erra e inventa coisas.
Pesquisadores como Achim estão começando a abordar esses problemas por meio da matemática. Com a matemática, é possível provar formalmente se uma resposta está certa ou errada.
Há cerca de uma década, um pesquisador da Microsoft, Leonardo de Moura, criou uma linguagem de programação de computadores especificamente para provar afirmações matemáticas. Chamada de Lean, essa linguagem de programação era originalmente uma ferramenta para matemáticos humanos. Mas agora que os sistemas de IA são hábeis o suficiente para gerar seu próprio código de computador, eles também podem usar o Lean.
A Harmonic está projetando um modelo de linguagem grande que pode gerar suas próprias provas. O código Lean que ele gera nem sempre é perfeito. Mas, por meio de tentativa e erro, ele pode aprender a verificar uma solução.
“É muito parecido com um ser humano”, disse Achim. “Se estivermos tentando resolver um problema de matemática, tentamos algumas etapas. E se elas falharem, você tenta outras, até acertar.”
Quando o Aristotle é solicitado a responder a problemas de matemática, ele pode verificar as respostas. Podem ser perguntas simples como “O que é 2+2?”. Ou podem ser problemas mais complexos, como o da grade de números 10 por 10.
“Se o sistema puder produzir uma resposta, é basicamente garantido que ela esteja correta”, disse Achim.
Como o Aristotle verifica suas próprias respostas, ele se torna uma forma de gerar enormes quantidades de dados digitais confiáveis que podem ser usados para ensinar sistemas de inteligência artificial. Em outras palavras, o Aristotle pode gerar dados que podem ser usados para melhorar a si mesmo.
Os pesquisadores chamam isso de “dados sintéticos” - dados produzidos pela IA que podem ser usados para treinar a IA. Muitos pesquisadores acreditam que esse conceito será parte vital do desenvolvimento da tecnologia.
Achim e Tenev acreditam que, após anos de treinamento, o Aristotle será melhor em matemática do que qualquer ser humano. “Queremos que ele seja tão inteligente quanto o conjunto de todos os matemáticos do mundo”, disse Tenev. “Queremos que ele resolva problemas que nunca foram resolvidos.”
Os sistemas de IA podem usar as mesmas técnicas para verificar seu próprio código de computador, que depende muito da lógica matemática. E se um sistema puder gerar um código confiável, ele poderá realizar ações na internet. Ele se torna o que os pesquisadores chamam de agente de IA. Muitos pesquisadores afirmam que, à medida que esses sistemas de IA forem aprimorados, eles poderão automatizar praticamente qualquer trabalho digital.
Leia também
Mas os pesquisadores não hesitam em acrescentar que esses sistemas de IA têm limites. O código enxuto pode provar teoremas matemáticos e verificar códigos de computador, mas não pode lidar com os complexos detalhes da vida cotidiana.
“Quando você sai do âmbito matemático, as coisas ficam muito diferentes”, disse Angela Fan, cientista pesquisadora da Meta. Em geral, não há certo e errado absolutos para os quais os sistemas de IA possam aprender a trabalhar, como fazem na matemática.
Silver reconhece esse problema. Mas ele também diz que há verdades verificáveis no mundo real. Uma pedra é uma pedra. O som viaja a 343 metros por segundo. O sol se põe no oeste. Se os sistemas de IA extraírem informações da realidade física, eles também poderão verificar essas verdades.
“A verdade pode vir do mundo”, disse Silver. “Se você puder obter feedback do mundo, poderá melhorar, melhorar e melhorar.”
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.