Opinião|Até onde a inteligência artificial faz tarefas para as quais não é programada? Cientistas testaram


Apesar de se comportar de maneira inteligente em muitos trabalhos, várias limitações e falhas foram identificadas

Por Fernando Reinach

Uma das dificuldades de quem desenvolve sistemas de inteligência artificial é a falta de uma definição clara do que é inteligência. Dizemos que um cachorro que vai buscar uma bola é inteligente, que uma planta que cresce em direção a luz é inteligente. Do mesmo modo dizemos que Einstein era inteligente ou que o campeão mundial de xadrez sem dúvida é inteligente. Isso apesar de ser facilmente derrotado pelos melhores programas de xadrez. E robôs que buscam bolas existem por aí. Sem uma definição clara do que é inteligência, como saber se os novos sistemas de inteligência artificial são verdadeiramente inteligentes? Este problema se repete para outras características que buscamos em sistemas de inteligência artificial, como consciência, vontade, iniciativa, criatividade e tantas outras características que acreditamos possuir, mas que nunca conseguimos definir de maneira precisa. E sem essas definições, ou padrões, como podemos avaliar se sistemas como ChatGPT ou GPT-4 atingiram algo semelhante à nossa própria inteligência?

Psicólogos que estudam o surgimento, o desenvolvimento e as características da inteligência humana se defrontam com o mesmo problema. Mas ao longo dos anos encontraram uma maneira de contornar essa barreira. Eles estudam comportamentos que representam o que chamamos de inteligência. Foi investigando esses comportamentos que descobriram como uma criança desenvolve sua capacidade de entender e explicar o mundo, como lidam com números, como aprendem a falar e desenvolvem o pensamento lógico e abstrato. E assim, mesmo sem uma definição de inteligência, foi sendo construída uma lista de comportamentos e capacidades, cada uma facilmente medida, que caracteriza nossa inteligência.

A novidade é que um grupo de cientistas da Microsoft publicou um enorme trabalho que estuda e descreve a presença desses comportamentos no sistema de inteligência artificial GPT-4. Em outras palavras, eles investigam o GPT-4 como um psicólogo experimental que investiga a inteligência de um rato ou de uma criança, tentando entender se esses comportamentos inteligentes já aparecem de forma rudimentar nesses sistemas.

continua após a publicidade

Mas será que faz sentido estudar e analisar um sistema de computador como se fosse um ser vivo? A maioria dos programas de computador são construídos a partir de uma lista de tarefas que devem ser capazes de executar. Eles fazem contas (Excel), calculam rotas (Waze) ou identificam músicas (Shazam) e não faz nenhum sentido estudar esses programas para entender suas propriedades já que elas foram pré-definidas quando o programa foi escrito. Mas isso não é verdade no caso dos programas de inteligência artificial. Programas como o GPT-4 recebem e organizam uma quantidade enorme de dados e conhecimentos produzidos pela humanidade.

O objetivo desses sistemas é executar uma espécie de engenharia reversa: assimilando tudo que foi produzido pela inteligência humana, tentam deduzir como isso foi produzido e simular a inteligência que produziu essas informações. E, para espanto dos cientistas, eles se tornam capazes de executar tarefas para as quais não foram programados diretamente. Por exemplo, eles entendem e escrevem em português, escrevem em códigos de computação, emitem opiniões, especulam e erram como os humanos. Essas propriedades, que surgem sem serem programadas, são chamadas propriedades emergentes. E são elas que estão sendo estudadas como estudamos os comportamentos de uma criança ou um rato para entender sua inteligência. A esperança é que talvez o conjunto dessas propriedades tenha tornado esses sistemas capazes de comportamentos inteligentes. É impossível descrever aqui todos os experimentos, mas eles envolvem por exemplo a capacidade de integrar programação, geometria e reconhecimento de imagem. Exemplo: quando solicitado a criar uma figura de um dinossauro usando uma linguagem de programação que gera formas geométricas, ele desenhou o seguinte:

 Foto: Reprodução
continua após a publicidade

Outra pergunta: como você faria uma pilha estável usando um livro, 9 ovos, um laptop, uma garrafa e um prego? Ele forneceu um passo a passo para fazer a pilha. No campo das capacidades espaciais ele foi capaz de desenhar uma planta de um apartamento a partir de uma descrição de um passeio pelo imóvel. Os experimentos ainda envolvem a capacidade de interagir com humanos (se explicar e justificar respostas) habilidades matemáticas (resolver equações) e muitos outros testes usados para caracterizar a inteligência humana. Mas o interessante é que apesar de se comportar de maneira inteligente em muitas tarefas, muitas limitações e falhas foram identificadas e descritas, o que deve servir para aperfeiçoar o sistema no futuro.

A conclusão dos autores é que o GPT-4 já possui muitas das características da inteligência humana específica e alguns lampejos do que os cientistas chamam de inteligência geral. Parece que estamos chegando lá.

Mais informações: Sparks of Artificial General Intelligence: Early experiments with GPT-4.

Uma das dificuldades de quem desenvolve sistemas de inteligência artificial é a falta de uma definição clara do que é inteligência. Dizemos que um cachorro que vai buscar uma bola é inteligente, que uma planta que cresce em direção a luz é inteligente. Do mesmo modo dizemos que Einstein era inteligente ou que o campeão mundial de xadrez sem dúvida é inteligente. Isso apesar de ser facilmente derrotado pelos melhores programas de xadrez. E robôs que buscam bolas existem por aí. Sem uma definição clara do que é inteligência, como saber se os novos sistemas de inteligência artificial são verdadeiramente inteligentes? Este problema se repete para outras características que buscamos em sistemas de inteligência artificial, como consciência, vontade, iniciativa, criatividade e tantas outras características que acreditamos possuir, mas que nunca conseguimos definir de maneira precisa. E sem essas definições, ou padrões, como podemos avaliar se sistemas como ChatGPT ou GPT-4 atingiram algo semelhante à nossa própria inteligência?

Psicólogos que estudam o surgimento, o desenvolvimento e as características da inteligência humana se defrontam com o mesmo problema. Mas ao longo dos anos encontraram uma maneira de contornar essa barreira. Eles estudam comportamentos que representam o que chamamos de inteligência. Foi investigando esses comportamentos que descobriram como uma criança desenvolve sua capacidade de entender e explicar o mundo, como lidam com números, como aprendem a falar e desenvolvem o pensamento lógico e abstrato. E assim, mesmo sem uma definição de inteligência, foi sendo construída uma lista de comportamentos e capacidades, cada uma facilmente medida, que caracteriza nossa inteligência.

A novidade é que um grupo de cientistas da Microsoft publicou um enorme trabalho que estuda e descreve a presença desses comportamentos no sistema de inteligência artificial GPT-4. Em outras palavras, eles investigam o GPT-4 como um psicólogo experimental que investiga a inteligência de um rato ou de uma criança, tentando entender se esses comportamentos inteligentes já aparecem de forma rudimentar nesses sistemas.

Mas será que faz sentido estudar e analisar um sistema de computador como se fosse um ser vivo? A maioria dos programas de computador são construídos a partir de uma lista de tarefas que devem ser capazes de executar. Eles fazem contas (Excel), calculam rotas (Waze) ou identificam músicas (Shazam) e não faz nenhum sentido estudar esses programas para entender suas propriedades já que elas foram pré-definidas quando o programa foi escrito. Mas isso não é verdade no caso dos programas de inteligência artificial. Programas como o GPT-4 recebem e organizam uma quantidade enorme de dados e conhecimentos produzidos pela humanidade.

O objetivo desses sistemas é executar uma espécie de engenharia reversa: assimilando tudo que foi produzido pela inteligência humana, tentam deduzir como isso foi produzido e simular a inteligência que produziu essas informações. E, para espanto dos cientistas, eles se tornam capazes de executar tarefas para as quais não foram programados diretamente. Por exemplo, eles entendem e escrevem em português, escrevem em códigos de computação, emitem opiniões, especulam e erram como os humanos. Essas propriedades, que surgem sem serem programadas, são chamadas propriedades emergentes. E são elas que estão sendo estudadas como estudamos os comportamentos de uma criança ou um rato para entender sua inteligência. A esperança é que talvez o conjunto dessas propriedades tenha tornado esses sistemas capazes de comportamentos inteligentes. É impossível descrever aqui todos os experimentos, mas eles envolvem por exemplo a capacidade de integrar programação, geometria e reconhecimento de imagem. Exemplo: quando solicitado a criar uma figura de um dinossauro usando uma linguagem de programação que gera formas geométricas, ele desenhou o seguinte:

 Foto: Reprodução

Outra pergunta: como você faria uma pilha estável usando um livro, 9 ovos, um laptop, uma garrafa e um prego? Ele forneceu um passo a passo para fazer a pilha. No campo das capacidades espaciais ele foi capaz de desenhar uma planta de um apartamento a partir de uma descrição de um passeio pelo imóvel. Os experimentos ainda envolvem a capacidade de interagir com humanos (se explicar e justificar respostas) habilidades matemáticas (resolver equações) e muitos outros testes usados para caracterizar a inteligência humana. Mas o interessante é que apesar de se comportar de maneira inteligente em muitas tarefas, muitas limitações e falhas foram identificadas e descritas, o que deve servir para aperfeiçoar o sistema no futuro.

A conclusão dos autores é que o GPT-4 já possui muitas das características da inteligência humana específica e alguns lampejos do que os cientistas chamam de inteligência geral. Parece que estamos chegando lá.

Mais informações: Sparks of Artificial General Intelligence: Early experiments with GPT-4.

Uma das dificuldades de quem desenvolve sistemas de inteligência artificial é a falta de uma definição clara do que é inteligência. Dizemos que um cachorro que vai buscar uma bola é inteligente, que uma planta que cresce em direção a luz é inteligente. Do mesmo modo dizemos que Einstein era inteligente ou que o campeão mundial de xadrez sem dúvida é inteligente. Isso apesar de ser facilmente derrotado pelos melhores programas de xadrez. E robôs que buscam bolas existem por aí. Sem uma definição clara do que é inteligência, como saber se os novos sistemas de inteligência artificial são verdadeiramente inteligentes? Este problema se repete para outras características que buscamos em sistemas de inteligência artificial, como consciência, vontade, iniciativa, criatividade e tantas outras características que acreditamos possuir, mas que nunca conseguimos definir de maneira precisa. E sem essas definições, ou padrões, como podemos avaliar se sistemas como ChatGPT ou GPT-4 atingiram algo semelhante à nossa própria inteligência?

Psicólogos que estudam o surgimento, o desenvolvimento e as características da inteligência humana se defrontam com o mesmo problema. Mas ao longo dos anos encontraram uma maneira de contornar essa barreira. Eles estudam comportamentos que representam o que chamamos de inteligência. Foi investigando esses comportamentos que descobriram como uma criança desenvolve sua capacidade de entender e explicar o mundo, como lidam com números, como aprendem a falar e desenvolvem o pensamento lógico e abstrato. E assim, mesmo sem uma definição de inteligência, foi sendo construída uma lista de comportamentos e capacidades, cada uma facilmente medida, que caracteriza nossa inteligência.

A novidade é que um grupo de cientistas da Microsoft publicou um enorme trabalho que estuda e descreve a presença desses comportamentos no sistema de inteligência artificial GPT-4. Em outras palavras, eles investigam o GPT-4 como um psicólogo experimental que investiga a inteligência de um rato ou de uma criança, tentando entender se esses comportamentos inteligentes já aparecem de forma rudimentar nesses sistemas.

Mas será que faz sentido estudar e analisar um sistema de computador como se fosse um ser vivo? A maioria dos programas de computador são construídos a partir de uma lista de tarefas que devem ser capazes de executar. Eles fazem contas (Excel), calculam rotas (Waze) ou identificam músicas (Shazam) e não faz nenhum sentido estudar esses programas para entender suas propriedades já que elas foram pré-definidas quando o programa foi escrito. Mas isso não é verdade no caso dos programas de inteligência artificial. Programas como o GPT-4 recebem e organizam uma quantidade enorme de dados e conhecimentos produzidos pela humanidade.

O objetivo desses sistemas é executar uma espécie de engenharia reversa: assimilando tudo que foi produzido pela inteligência humana, tentam deduzir como isso foi produzido e simular a inteligência que produziu essas informações. E, para espanto dos cientistas, eles se tornam capazes de executar tarefas para as quais não foram programados diretamente. Por exemplo, eles entendem e escrevem em português, escrevem em códigos de computação, emitem opiniões, especulam e erram como os humanos. Essas propriedades, que surgem sem serem programadas, são chamadas propriedades emergentes. E são elas que estão sendo estudadas como estudamos os comportamentos de uma criança ou um rato para entender sua inteligência. A esperança é que talvez o conjunto dessas propriedades tenha tornado esses sistemas capazes de comportamentos inteligentes. É impossível descrever aqui todos os experimentos, mas eles envolvem por exemplo a capacidade de integrar programação, geometria e reconhecimento de imagem. Exemplo: quando solicitado a criar uma figura de um dinossauro usando uma linguagem de programação que gera formas geométricas, ele desenhou o seguinte:

 Foto: Reprodução

Outra pergunta: como você faria uma pilha estável usando um livro, 9 ovos, um laptop, uma garrafa e um prego? Ele forneceu um passo a passo para fazer a pilha. No campo das capacidades espaciais ele foi capaz de desenhar uma planta de um apartamento a partir de uma descrição de um passeio pelo imóvel. Os experimentos ainda envolvem a capacidade de interagir com humanos (se explicar e justificar respostas) habilidades matemáticas (resolver equações) e muitos outros testes usados para caracterizar a inteligência humana. Mas o interessante é que apesar de se comportar de maneira inteligente em muitas tarefas, muitas limitações e falhas foram identificadas e descritas, o que deve servir para aperfeiçoar o sistema no futuro.

A conclusão dos autores é que o GPT-4 já possui muitas das características da inteligência humana específica e alguns lampejos do que os cientistas chamam de inteligência geral. Parece que estamos chegando lá.

Mais informações: Sparks of Artificial General Intelligence: Early experiments with GPT-4.

Uma das dificuldades de quem desenvolve sistemas de inteligência artificial é a falta de uma definição clara do que é inteligência. Dizemos que um cachorro que vai buscar uma bola é inteligente, que uma planta que cresce em direção a luz é inteligente. Do mesmo modo dizemos que Einstein era inteligente ou que o campeão mundial de xadrez sem dúvida é inteligente. Isso apesar de ser facilmente derrotado pelos melhores programas de xadrez. E robôs que buscam bolas existem por aí. Sem uma definição clara do que é inteligência, como saber se os novos sistemas de inteligência artificial são verdadeiramente inteligentes? Este problema se repete para outras características que buscamos em sistemas de inteligência artificial, como consciência, vontade, iniciativa, criatividade e tantas outras características que acreditamos possuir, mas que nunca conseguimos definir de maneira precisa. E sem essas definições, ou padrões, como podemos avaliar se sistemas como ChatGPT ou GPT-4 atingiram algo semelhante à nossa própria inteligência?

Psicólogos que estudam o surgimento, o desenvolvimento e as características da inteligência humana se defrontam com o mesmo problema. Mas ao longo dos anos encontraram uma maneira de contornar essa barreira. Eles estudam comportamentos que representam o que chamamos de inteligência. Foi investigando esses comportamentos que descobriram como uma criança desenvolve sua capacidade de entender e explicar o mundo, como lidam com números, como aprendem a falar e desenvolvem o pensamento lógico e abstrato. E assim, mesmo sem uma definição de inteligência, foi sendo construída uma lista de comportamentos e capacidades, cada uma facilmente medida, que caracteriza nossa inteligência.

A novidade é que um grupo de cientistas da Microsoft publicou um enorme trabalho que estuda e descreve a presença desses comportamentos no sistema de inteligência artificial GPT-4. Em outras palavras, eles investigam o GPT-4 como um psicólogo experimental que investiga a inteligência de um rato ou de uma criança, tentando entender se esses comportamentos inteligentes já aparecem de forma rudimentar nesses sistemas.

Mas será que faz sentido estudar e analisar um sistema de computador como se fosse um ser vivo? A maioria dos programas de computador são construídos a partir de uma lista de tarefas que devem ser capazes de executar. Eles fazem contas (Excel), calculam rotas (Waze) ou identificam músicas (Shazam) e não faz nenhum sentido estudar esses programas para entender suas propriedades já que elas foram pré-definidas quando o programa foi escrito. Mas isso não é verdade no caso dos programas de inteligência artificial. Programas como o GPT-4 recebem e organizam uma quantidade enorme de dados e conhecimentos produzidos pela humanidade.

O objetivo desses sistemas é executar uma espécie de engenharia reversa: assimilando tudo que foi produzido pela inteligência humana, tentam deduzir como isso foi produzido e simular a inteligência que produziu essas informações. E, para espanto dos cientistas, eles se tornam capazes de executar tarefas para as quais não foram programados diretamente. Por exemplo, eles entendem e escrevem em português, escrevem em códigos de computação, emitem opiniões, especulam e erram como os humanos. Essas propriedades, que surgem sem serem programadas, são chamadas propriedades emergentes. E são elas que estão sendo estudadas como estudamos os comportamentos de uma criança ou um rato para entender sua inteligência. A esperança é que talvez o conjunto dessas propriedades tenha tornado esses sistemas capazes de comportamentos inteligentes. É impossível descrever aqui todos os experimentos, mas eles envolvem por exemplo a capacidade de integrar programação, geometria e reconhecimento de imagem. Exemplo: quando solicitado a criar uma figura de um dinossauro usando uma linguagem de programação que gera formas geométricas, ele desenhou o seguinte:

 Foto: Reprodução

Outra pergunta: como você faria uma pilha estável usando um livro, 9 ovos, um laptop, uma garrafa e um prego? Ele forneceu um passo a passo para fazer a pilha. No campo das capacidades espaciais ele foi capaz de desenhar uma planta de um apartamento a partir de uma descrição de um passeio pelo imóvel. Os experimentos ainda envolvem a capacidade de interagir com humanos (se explicar e justificar respostas) habilidades matemáticas (resolver equações) e muitos outros testes usados para caracterizar a inteligência humana. Mas o interessante é que apesar de se comportar de maneira inteligente em muitas tarefas, muitas limitações e falhas foram identificadas e descritas, o que deve servir para aperfeiçoar o sistema no futuro.

A conclusão dos autores é que o GPT-4 já possui muitas das características da inteligência humana específica e alguns lampejos do que os cientistas chamam de inteligência geral. Parece que estamos chegando lá.

Mais informações: Sparks of Artificial General Intelligence: Early experiments with GPT-4.

Opinião por Fernando Reinach

Biólogo, PHD em Biologia Celular e Molecular pela Cornell University e autor de "A Chegada do Novo Coronavírus no Brasil"; "Folha de Lótus, Escorregador de Mosquito"; e "A Longa Marcha dos Grilos Canibais"

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.