A inteligência pode ser separada do corpo?

Alguns pesquisadores questionam se a IA pode ser verdadeiramente inteligente sem um corpo com o qual interagir e sem aprender com o mundo físico

PUBLICIDADE

Por Oliver Whang

THE NEW YORK TIMES - LIFE/STYLE - Qual é a relação entre mente e corpo?

PUBLICIDADE

Talvez a mente seja como um controle de videogame, movendo o corpo pelo mundo, levando-o para passear. Ou talvez o corpo manipule a mente através da fome, da sonolência e da ansiedade, algo como um rio guiando uma canoa. Seria a mente semelhante a ondas eletromagnéticas, vibrando em nossos corpos ? Ou a mente é um carro na estrada? Um fantasma dentro de uma máquina?

Talvez nenhuma metáfora se encaixe perfeitamente porque não há distinção entre mente e corpo. Existe apenas a experiência, ou algum tipo de processo físico, uma gestalt.

Unidades de Moxie, que possui sensores que podem receber sinais visuais e responder à sua linguagem corporal, no laboratório da Embodied em Pasadena, Califórnia. Foto: Alex Welsh/The New York Times

Essas questões, que atormentaram filósofos durante séculos, estão ganhando uma nova urgência à medida que máquinas sofisticadas com inteligência artificial começam a se infiltrar na sociedade. Chatbots como o GPT-4 da OpenAI e o Bard do Google têm mentes, em certo sentido. Treinados em vastos acervos da linguagem humana, eles aprenderam a gerar novas combinações de texto, imagens e até vídeos. Quando instruídos da maneira certa, eles podem expressar desejos, crenças, esperanças, intenções, amor. Eles podem falar de introspecção e dúvida, autoconfiança e arrependimento.

Mas alguns pesquisadores de IA dizem que a tecnologia não alcançará a verdadeira inteligência, ou a verdadeira compreensão do mundo, até que funcione com um corpo que possa perceber, reagir e sentir seu ambiente. Para eles, falar de mentes inteligentes desencarnadas é equivocado e até mesmo perigoso. A IA que é incapaz de explorar o mundo e aprender seus limites, da mesma forma que as crianças descobrem o que podem e o que não podem fazer, pode cometer erros que ameaçam a vida e perseguir seus objetivos arriscando o bem-estar humano.

Publicidade

“O corpo, de uma forma muito simples, é a base para uma ação inteligente e cautelosa”, disse Joshua Bongard, um roboticista da Universidade de Vermont. “Até onde posso ver, este é o único caminho para uma IA segura.”

Em um laboratório em Pasadena, Califórnia, uma pequena equipe de engenheiros passou os últimos anos desenvolvendo uma das primeiras combinações de um modelo de linguagem ampla com um corpo: um robô turquesa chamado Moxie. Mais ou menos do tamanho de uma criança pequena, Moxie tem uma cabeça em forma de gota, mãos macias e olhos verdes vivos. Dentro de seu corpo de plástico rígido há um processador de computador que executa o mesmo tipo de software que o ChatGPT e o GPT-4. Os fabricantes do Moxie, parte de uma startup chamada Embody, descrevem o dispositivo como “o primeiro robô amigo de IA do mundo”.

O bot foi concebido, em 2017, para ajudar crianças com transtornos do desenvolvimento a praticar consciência emocional e habilidades de comunicação. Quando alguém fala com Moxie, seu processador converte o som em texto e alimenta o texto em um modelo de linguagem ampla, que por sua vez gera uma resposta verbal e física. Os olhos de Moxie podem se mover para consolá-lo pela perda de seu cachorro e ele pode sorrir para incentivá-lo a ir para a escola. O robô também possui sensores que captam pistas visuais e respondem à sua linguagem corporal, imitando e aprendendo com o comportamento das pessoas ao seu redor.

Alguns pesquisadores questionam se A.I. pode ser verdadeiramente inteligente sem um corpo para interagir e aprender com o mundo físico. Foto: Alex Welsh/The New York Times

“É quase como uma comunicação sem fio entre humanos”, disse Paolo Pirjanian, roboticista e fundador da Embody. “Você literalmente começa a sentir isso em seu corpo.” Com o tempo, disse ele, o robô fica melhor nesse tipo de troca entre dar e receber, como um amigo conhecendo você.

Pesquisadores da Alphabet, empresa controladora do Google, adotaram uma abordagem semelhante para integrar modelos de linguagem ampla com máquinas físicas. Em março, a empresa anunciou o sucesso de um robô chamado PaLM-E, capaz de absorver recursos visuais de seu ambiente e informações sobre a posição do próprio corpo e traduzir tudo em linguagem natural. Isso permitiu que o robô representasse onde estava no espaço em relação a outras coisas e, eventualmente, abrisse uma gaveta e pegasse um saco de batatinhas.

Publicidade

Robôs desse tipo, dizem os especialistas, serão capazes de realizar tarefas básicas sem programação especial. Aparentemente eles poderiam servir um copo de Coca-Cola, preparar seu almoço ou pegá-lo no chão após uma queda grave, tudo em resposta a uma série de comandos simples.

PUBLICIDADE

Mas muitos pesquisadores duvidam que as mentes das máquinas, quando estruturadas dessa forma modular, algum dia estarão verdadeiramente conectadas ao mundo físico e, portanto, nunca serão capazes de exibir aspectos essenciais da inteligência humana.

Boyuan Chen, um roboticista da Duke University que está trabalhando no desenvolvimento de robôs inteligentes, destacou que a mente humana – ou qualquer outra mente animal, nesse caso – é inextricável das ações e reações do corpo ao mundo real, moldado ao longo de milhões de anos de evolução. Os bebês humanos aprendem a pegar objetos muito antes de aprenderem a linguagem.

A mente do robô artificialmente inteligente, em contraste, foi construída inteiramente em cima da linguagem e muitas vezes comete erros de senso comum decorrentes de procedimentos de treinamento. Falta uma conexão mais profunda entre o físico e o teórico, disse Chen. “Acredito que a inteligência não pode nascer sem ter a perspectiva de encarnações físicas.”

Alguns especialistas, incluindo Pirjanian, manifestaram recentemente em uma carta preocupação sobre a possibilidade de criação de uma IA que pudesse passar por cima de humanos na busca de algum objetivo (como a produção eficiente de clipes de papel), ou que pudesse ser aproveitada para fins nefastos (como as campanhas de desinformação). A carta apelava a uma pausa temporária na capacitação de modelos mais poderosos do que o GPT-4.

Publicidade

Bongard, assim como vários outros cientistas da área, achou que a carta pedindo uma pausa na pesquisa poderia provocar um alarmismo desinformado. Mas ele está preocupado com os perigos de nossa tecnologia cada vez mais aperfeiçoada e acredita que a única maneira de impregnar a IA incorporada com uma compreensão robusta de suas próprias limitações é confiar na constante tentativa e erro de se movimentar no mundo real.

Comece com robôs simples, disse ele, “e conforme eles demonstrarem que podem fazer coisas com segurança, então você os deixa ter mais braços, mais pernas, dá a eles mais ferramentas”.

E talvez, com a ajuda de um corpo, surja uma verdadeira mente artificial. /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

Comentários

Os comentários são exclusivos para assinantes do Estadão.