Os modelos de inteligência artificial (IA) que se tornaram mais usados nos últimos anos são grandes glutões de dados: consomem um volume imenso de informações, identificam padrões e fazem previsões baseadas nessas associações. Têm sido muito útil em diversas áreas, mas, para o gaúcho Luís Lamb, isso não é suficiente para máquinas realmente capazes de auxiliar humanos.
Hoje diretor de um centro focado em empreendedorismo e startups do Instituto de Tecnologia de Massachusetts (MIT), Lamb pesquisa há mais de 20 anos maneiras de introduzir raciocínio lógico a sistemas de IA. Ele é um dos principais nomes no mundo em um campo chamado inteligência artificial neuro-simbólica, que tenta fazer grandes modelos estruturarem aquilo que aprendem com os dados em linguagem e regras, de maneira que a informação possa ser analisada de forma mais ampla.
É um trabalho teórico de difícil compreensão em um primeiro momento, mas ele tenta explicar. “Os modelos atuais de IA são como os alunos que apenas decoram a matéria para uma prova: não há conhecimento, apenas a memorização de informações. O ideal é que o aluno possa ter raciocínio lógico sobre aquilo que aprende”, diz ele ao Estadão.
Ele conta que resolveu mergulhar na área porque via um limite para os modelos que apenas fazem predição de dados. “Mesmo que todos os dados do mundo sejam consumidos, há um limite para o que esses sistemas podem fazer. Eu não via futuro nisso. É preciso acrescentar lógica”, diz ele. Assim, em 2009, Lamb foi coautor de Neural-Symbolic Cognitive Reasoning, um livro fundamental para o campo.
Antes do surgimento da IA neuro-simbólica, o desenvolvimento da tecnologia se dividia em duas vertentes: a neural, que consome muitos dados para identificar padrões, e a simbólica, que estabelece regras que explicam a realidade, como fazem os humanos. Ambas possuem limitações: a primeira não acumula e extrapola conhecimento, enquanto a outra não funciona em cenários macros e com dados como áudio e imagem. A ideia, portanto, da IA neuro-simbólica é permitir raciocínio sobre grandes volumes de diferentes tipos de dados, o que permite os sistemas a navegarem por ambientes diferentes com a mesma qualidade.
Segundo ele, a interação que as pessoas passaram a ter com chatbots inteligentes é uma oportunidade para avançar a IA neuro-simbólica. “Embora o ChatGPT tenha uma abordagem neural, a conversa é por meio de símbolos, que são os prompts”, diz. Segundo ele, o problema das alucinações, quando as respostas são mentirosas ou extrapolam o bom senso, poderia ser controlado, pois a abordagem neuro-simbólica permite domínio da lógica.
Há alguns anos, a abordagem neuro-simbólica está no radar de grandes empresas, como Microsoft, Google e IBM. Para a dona da plataforma Watson, a existência de uma inteligência artificial geral (AGI, na sigla em inglês), sistema hipotético de capacidade humana, passa por desenvolver tecnologia neuro-simbólica.
Com tantos temas atuais orbitando em sua área de atuação, Lamb diz que seu trabalho passou a ser mais reconhecido. “Muito ainda precisa ser feito, mas foi um trabalho de persistência de 20 anos chegar até aqui. Agora, as pessoas estão começando a se lembrar do nosso trabalho”, diz ele.
Entre tantas possibilidades atuais para a tecnologia, a que mais anima Lamb é eliminar vieses e tornar a IA mais transparente. Ao tornar sistemas mais lógicos por meio de comunicação simbólica, a IA poderia passar a explicar porque toma decisões - uma das críticas a sistemas de predição é que nem sempre é possível entender as associações entre dados feitas pela máquina, tornando elas “caixas pretas”. É um requisito que começa, inclusive, a entrar no radar de legisladores.
Com tanta potencial, Lamb resume a importância do que faz: “O cálice sagrado da IA é a lógica, não o aprendizado”.
Os comentários são exclusivos para assinantes do Estadão.