Entenda como as novas inteligências artificiais venceram o ‘Jogo de Imitação’ de Alan Turing


ChatGPT e o DALL-E têm movimentado os debates nas últimas semanas, como a imagem fake do Papa Francisco

Por Cade Metz
Atualização:

Por mais de 70 anos, cientistas da computação tiveram dificuldade para construir uma tecnologia que conseguisse passar no famoso ‘Jogo de Imitação’ do cientista Alan Turing: o ponto de inflexão tecnológica em que nós, humanos, não temos mais certeza se estamos conversando com uma máquina ou com uma pessoa.

Matemático e filósofo britânico decifrador de códigos de guerra, ele acreditava que o teste conseguiria mostrar ao mundo o momento em que as máquinas finalmente atingissem a ampla inteligência. Isso em 1950. O teste de Turing é uma medida subjetiva. Depende de quanto as pessoas que fazem as perguntas se sentem convencidas de que estão falando com outra pessoa quando, na verdade, estão conversando com um dispositivo. Mas, independentemente de quem esteja fazendo as perguntas, as máquinas logo deixarão esse teste no espelho retrovisor.

O cientista Alan Turing foi responsável pela invenção do 'Jogo de Imitação' Foto: Reuters
continua após a publicidade

Hoje, bots já passaram no teste em situações específicas, como ligar para um restaurante e fazer reservas para o jantar. O ChatGPT, bot lançado em novembro pelo OpenAI, um laboratório de São Francisco, deixa as pessoas com a sensação de que estão conversando com outra pessoa, não com um bot. O laboratório disse que mais de um milhão de pessoas já o usaram. Como o ChatGPT pode escrever praticamente qualquer coisa, até mesmo trabalhos de conclusão de curso, universidades temem que a máquina possa acabar com as tarefas escolares. Quando algumas pessoas falam com esses bots, elas até os descrevem como sencientes ou conscientes, acreditando que as máquinas de alguma forma desenvolveram uma consciência do mundo ao seu redor.

A OpenAI construiu um sistema, o GPT-4, que é ainda mais poderoso que o ChatGPT. Além de palavras, pode até gerar imagens. E, no entanto, esses bots não são sencientes. Não são conscientes. Não são inteligentes – pelo menos não da maneira como os humanos são inteligentes. Até mesmo as pessoas que constroem a tecnologia reconhecem esse fato.Esses bots são muito bons em certos tipos de conversa, mas não conseguem responder ao inesperado tão bem quanto a maioria dos humanos. Às vezes falam bobagens e não conseguem corrigir os próprios erros. Parte do problema é que, quando um bot imita uma conversa, ele pode parecer mais inteligente do que realmente é. O teste de Turing não considera que nós, humanos, somos ingênuos por natureza, que as palavras podem facilmente nos levar a acreditar em algo que não é verdade.

JOGO DE IMITAÇÃO

continua após a publicidade
Cena do filme 'O Jogo da Imitação', de Morten Tyldum, com Benedict Cumberbatch, Keira Knightley e Matthew Goode Foto: Netflix

Em 1950, Alan Turing publicou um artigo chamado Computing Machinery and Intelligence. Quinze anos depois que suas ideias ajudaram a gerar os primeiros computadores do mundo, ele propôs uma maneira de determinar se essas novas máquinas podiam pensar. Na época, o mundo científico tinha dificuldade de entender o que era um computador. Era um cérebro digital? Ou era outra coisa? Ele chamou-a de “jogo da imitação”. O teste envolvia duas longas conversas – uma com uma máquina e outra com um ser humano. Ambas as conversas seriam conduzidas via texto, para que a pessoa do outro lado não soubesse de imediato com quem estava falando. Se a pessoa não conseguisse perceber a diferença entre as duas trocas à medida que as conversas avançavam, então dava para dizer que a máquina conseguia pensar.

”O método de perguntas e respostas parece adequado para introduzir quase qualquer um dos campos do empreendimento humano que quisermos abarcar”, escreveu Turing. O teste poderia abranger tudo, desde poesia até matemática, explicou ele. Quando Turing propôs o teste, os computadores não conseguiam conversar. Os cientistas se comunicavam com máquinas do tamanho de uma sala alimentando instruções matemáticas e textuais em tubos de vácuo por meio de máquinas de escrever, fitas magnéticas e cartões perfurados. Mas conforme os anos passavam, pesquisadores criavam um campo que chamaram de inteligência artificial.

continua após a publicidade

Em meados da década de 1960, as máquinas não conseguiam conversar muito. Mas, mesmo assim, enganavam as pessoas fazendo-as acreditar que eram mais inteligentes do que eram de fato. Nas décadas seguintes, os chatbots se aperfeiçoaram a passo de tartaruga. O melhor que os pesquisadores podiam fazer era estabelecer uma longa lista de regras definindo como um bot deveria se comportar. E não importa quantas regras eles escrevessem, nunca eram suficientes. O escopo da linguagem natural era grande demais.

Um camelo tem algo entre duas ou quatro patas, talvez três

Robô Eugene Goostman

Em 2014, depois de quase sessenta anos de pesquisa em IA, três pesquisadores de São Petersburgo, na Rússia, construíram um bot, chamado Eugene Goostman, que imitava um ucraniano de 13 anos que tinha aprendido inglês como segunda língua. Mas as alegações de seus criadores – e da mídia – de que a máquina havia passado no teste de Turing eram muito exageradas.

continua após a publicidade

Quando lhe perguntaram: “O que é maior, uma caixa de sapatos ou o Monte Everest?”, o bot disse: “Não consigo fazer uma escolha agora”. Quando lhe perguntaram: “Quantas patas tem um camelo?”, ele respondeu: “Algo entre dois e quatro. Talvez, três?”.

Então, cerca de três anos depois, pesquisadores de lugares como Google e OpenAI começaram a construir um novo tipo de inteligência artificial. Certa manhã semanas atrás, fiz ao ChatGPT as mesmas perguntas que Turing fizera em seu artigo de 1950. De imediato, ele gerou um poema sobre a Forth Bridge: ”Sua tinta vermelha brilha ao sol da manhã/Um espetáculo para ser visto, para todos verem /Sua majestade e grandeza com afã.”

O controverso ChatGPT Foto: Reuters
continua após a publicidade

Não precisou de trinta segundos para isso. “Quando expus o cenário final de um jogo de xadrez como Turing fizera, respondeu com sua prosa sempre clara, concisa e confiante. Parecia entender a situação. Mas não estava entendendo nada”. O ChatGPT confundiu o fim do jogo com o começo. “Eu moveria minha torre para R2″, disse. “No xadrez, em geral é bom tentar abrir suas peças o mais rápido possível”.

O ChatGPT é o que os pesquisadores chamam de rede neural, um sistema matemático mais ou menos modelado a partir da rede de neurônios do cérebro. É a mesma tecnologia que traduz entre inglês e espanhol em serviços como o Google Tradutor e identifica pedestres enquanto carros autônomos percorrem as ruas da cidade.

“Precisamos de uma mudança. Não podemos mais julgar inteligência comparando máquinas ao comportamento humano”

Oren Etzioni

continua após a publicidade

Uma rede neural aprende habilidades analisando dados. Ao identificar padrões em milhares de fotos de sinais de parada, por exemplo, consegue aprender a reconhecer um sinal de parada. Cinco anos atrás, Google, OpenAI e outros laboratórios de IA começaram a projetar redes neurais que analisavam enormes quantidades de texto digital, como livros, notícias, artigos da Wikipédia e registros de bate-papo online. Os pesquisadores os chamam de “grandes modelos de linguagem”. Identificando bilhões de padrões distintos na forma como as pessoas conectam palavras, letras e símbolos, esses sistemas aprenderam a gerar seu próprio texto.Eles podem criar tweets, postagens em blogs, poemas e até programas de computador. Sabem manter uma conversa – pelo menos até certo ponto. E, ao fazê-lo, conseguem combinar perfeitamente conceitos distantes. Você pode pedir que ela fale sobre a vida de um pesquisador acadêmico de pós-doutorado – e eles o farão.

O problema é que, embora suas habilidades linguísticas sejam impressionantes, as palavras e ideias nem sempre são fundamentadas por aquilo que a maioria das pessoas chamaria de razão ou bom senso. Os sistemas escrevem receitas sem levar em conta o sabor da comida. Fazem pouca distinção entre fato e ficção. Sugerem jogadas de xadrez com total confiança, mesmo quando não entendem a situação do jogo. O ChatGPT vai bem nas perguntas e respostas, mas tende a falhar quando você o leva para outras direções.

DALL-E.

Wall-E, animação da Pixar sobre um robozinho carismático  Foto: Disney Pixar

Homenagem a WALL-E, o filme de animação de 2008 sobre um robô autônomo, e a Salvador Dalí, o pintor surrealista, essa tecnologia experimental possibilita criar imagens digitais simplesmente descrevendo o que você quer ver. Também é uma rede neural, construída de forma muito parecida com Franz Broseph ou o ChatGPT. A diferença é que ele aprende tanto com imagens quanto com textos. Analisando milhões de imagens digitais e as legendas que as descrevem, ele aprendeu a reconhecer as ligações entre imagens e palavras.Isso é conhecido como sistema multimodal. Google, OpenAI e outras organizações já estão usando métodos semelhantes para construir sistemas que podem gerar vídeos de pessoas e objetos. Estes não são sistemas que qualquer um possa avaliar adequadamente com o teste de Turing – ou qualquer outro método simples. Seu objetivo final não é a conversa.

Pesquisadores do Google e da DeepMind, que pertence à empresa controladora do Google, estão desenvolvendo testes destinados a avaliar chatbots e sistemas como o DALL-E, para ver o que eles fazem bem, onde carecem de razão e bom senso e muito mais. Um teste mostra vídeos para sistemas de inteligência artificial e pede que expliquem o que está acontecendo. Depois de assistir a alguém mexendo em um barbeador elétrico, por exemplo, a IA precisa explicar por que o barbeador não ligou.Esses testes parecem exercícios acadêmicos – assim como o teste de Turing. Precisamos de algo que seja mais prático, que possa realmente nos dizer o que esses sistemas fazem bem e o que não conseguem fazer, como vão substituir o trabalho humano no curto prazo e como não vão.

Também poderíamos nos beneficiar de uma mudança de atitude. “Precisamos de uma mudança de paradigma – onde não julgamos mais a inteligência comparando as máquinas ao comportamento humano”, disse Oren Etzioni, professor emérito da Universidade de Washington e presidente-executivo fundador do Allen Institute for AI, um importante laboratório em Seattle.

As tecnologias ainda não lidam com conceitos que nunca viram antes – não podem pegar ideias para explorá-las livremente

O teste de Turing avaliava se a máquina conseguia imitar um ser humano. É assim que normalmente se retrata a inteligência artificial – como o surgimento de máquinas que pensam como pessoas. Mas as tecnologias em desenvolvimento hoje são muito diferentes de você e de mim. Elas não conseguem lidar com conceitos que nunca viram antes. E não podem pegar ideias e explorá-las no mundo físico.

Ao mesmo tempo, há muitas maneiras pelas quais esses bots são superiores a você e a mim. Eles não se cansam. Não deixam a emoção atrapalhar o que estão tentando fazer. Podem extrair quantidades muito maiores de informações instantaneamente. E conseguem gerar textos, imagens e outras mídias em velocidades e volumes que nós, humanos, jamais conseguiríamos.

Suas habilidades também vão melhorar consideravelmente com o passar do tempo. Nos próximos meses e anos, esses bots vão ajudar você a encontrar informações na internet. Vão explicar os conceitos de maneiras que você possa entender. E, se você quiser, vão até mesmo escrever seus tweets, postagens em blog e trabalhos de conclusão de curso.”Este será o próximo passo da Pixar: filmes superpersonalizados que qualquer pessoa vai poder criar muito rapidamente”, disse Bryan McCann, ex-cientista de pesquisa da Salesforce, que está explorando chatbots e outras tecnologias de IA em uma startup chamada You.com.

Como o ChatGPT e o DALL-E mostraram, essas coisas serão chocantes, fascinantes e divertidas. E nos deixarão imaginando como tudo isso mudará nossas vidas. O que vai acontecer com as pessoas que fazem filmes? Essa tecnologia inundará a internet com imagens que parecem reais, mas não são? Seus erros vão nos deixar perdidos?l TRADUÇÃO DE RENATO PRELORENTZOU

Por mais de 70 anos, cientistas da computação tiveram dificuldade para construir uma tecnologia que conseguisse passar no famoso ‘Jogo de Imitação’ do cientista Alan Turing: o ponto de inflexão tecnológica em que nós, humanos, não temos mais certeza se estamos conversando com uma máquina ou com uma pessoa.

Matemático e filósofo britânico decifrador de códigos de guerra, ele acreditava que o teste conseguiria mostrar ao mundo o momento em que as máquinas finalmente atingissem a ampla inteligência. Isso em 1950. O teste de Turing é uma medida subjetiva. Depende de quanto as pessoas que fazem as perguntas se sentem convencidas de que estão falando com outra pessoa quando, na verdade, estão conversando com um dispositivo. Mas, independentemente de quem esteja fazendo as perguntas, as máquinas logo deixarão esse teste no espelho retrovisor.

O cientista Alan Turing foi responsável pela invenção do 'Jogo de Imitação' Foto: Reuters

Hoje, bots já passaram no teste em situações específicas, como ligar para um restaurante e fazer reservas para o jantar. O ChatGPT, bot lançado em novembro pelo OpenAI, um laboratório de São Francisco, deixa as pessoas com a sensação de que estão conversando com outra pessoa, não com um bot. O laboratório disse que mais de um milhão de pessoas já o usaram. Como o ChatGPT pode escrever praticamente qualquer coisa, até mesmo trabalhos de conclusão de curso, universidades temem que a máquina possa acabar com as tarefas escolares. Quando algumas pessoas falam com esses bots, elas até os descrevem como sencientes ou conscientes, acreditando que as máquinas de alguma forma desenvolveram uma consciência do mundo ao seu redor.

A OpenAI construiu um sistema, o GPT-4, que é ainda mais poderoso que o ChatGPT. Além de palavras, pode até gerar imagens. E, no entanto, esses bots não são sencientes. Não são conscientes. Não são inteligentes – pelo menos não da maneira como os humanos são inteligentes. Até mesmo as pessoas que constroem a tecnologia reconhecem esse fato.Esses bots são muito bons em certos tipos de conversa, mas não conseguem responder ao inesperado tão bem quanto a maioria dos humanos. Às vezes falam bobagens e não conseguem corrigir os próprios erros. Parte do problema é que, quando um bot imita uma conversa, ele pode parecer mais inteligente do que realmente é. O teste de Turing não considera que nós, humanos, somos ingênuos por natureza, que as palavras podem facilmente nos levar a acreditar em algo que não é verdade.

JOGO DE IMITAÇÃO

Cena do filme 'O Jogo da Imitação', de Morten Tyldum, com Benedict Cumberbatch, Keira Knightley e Matthew Goode Foto: Netflix

Em 1950, Alan Turing publicou um artigo chamado Computing Machinery and Intelligence. Quinze anos depois que suas ideias ajudaram a gerar os primeiros computadores do mundo, ele propôs uma maneira de determinar se essas novas máquinas podiam pensar. Na época, o mundo científico tinha dificuldade de entender o que era um computador. Era um cérebro digital? Ou era outra coisa? Ele chamou-a de “jogo da imitação”. O teste envolvia duas longas conversas – uma com uma máquina e outra com um ser humano. Ambas as conversas seriam conduzidas via texto, para que a pessoa do outro lado não soubesse de imediato com quem estava falando. Se a pessoa não conseguisse perceber a diferença entre as duas trocas à medida que as conversas avançavam, então dava para dizer que a máquina conseguia pensar.

”O método de perguntas e respostas parece adequado para introduzir quase qualquer um dos campos do empreendimento humano que quisermos abarcar”, escreveu Turing. O teste poderia abranger tudo, desde poesia até matemática, explicou ele. Quando Turing propôs o teste, os computadores não conseguiam conversar. Os cientistas se comunicavam com máquinas do tamanho de uma sala alimentando instruções matemáticas e textuais em tubos de vácuo por meio de máquinas de escrever, fitas magnéticas e cartões perfurados. Mas conforme os anos passavam, pesquisadores criavam um campo que chamaram de inteligência artificial.

Em meados da década de 1960, as máquinas não conseguiam conversar muito. Mas, mesmo assim, enganavam as pessoas fazendo-as acreditar que eram mais inteligentes do que eram de fato. Nas décadas seguintes, os chatbots se aperfeiçoaram a passo de tartaruga. O melhor que os pesquisadores podiam fazer era estabelecer uma longa lista de regras definindo como um bot deveria se comportar. E não importa quantas regras eles escrevessem, nunca eram suficientes. O escopo da linguagem natural era grande demais.

Um camelo tem algo entre duas ou quatro patas, talvez três

Robô Eugene Goostman

Em 2014, depois de quase sessenta anos de pesquisa em IA, três pesquisadores de São Petersburgo, na Rússia, construíram um bot, chamado Eugene Goostman, que imitava um ucraniano de 13 anos que tinha aprendido inglês como segunda língua. Mas as alegações de seus criadores – e da mídia – de que a máquina havia passado no teste de Turing eram muito exageradas.

Quando lhe perguntaram: “O que é maior, uma caixa de sapatos ou o Monte Everest?”, o bot disse: “Não consigo fazer uma escolha agora”. Quando lhe perguntaram: “Quantas patas tem um camelo?”, ele respondeu: “Algo entre dois e quatro. Talvez, três?”.

Então, cerca de três anos depois, pesquisadores de lugares como Google e OpenAI começaram a construir um novo tipo de inteligência artificial. Certa manhã semanas atrás, fiz ao ChatGPT as mesmas perguntas que Turing fizera em seu artigo de 1950. De imediato, ele gerou um poema sobre a Forth Bridge: ”Sua tinta vermelha brilha ao sol da manhã/Um espetáculo para ser visto, para todos verem /Sua majestade e grandeza com afã.”

O controverso ChatGPT Foto: Reuters

Não precisou de trinta segundos para isso. “Quando expus o cenário final de um jogo de xadrez como Turing fizera, respondeu com sua prosa sempre clara, concisa e confiante. Parecia entender a situação. Mas não estava entendendo nada”. O ChatGPT confundiu o fim do jogo com o começo. “Eu moveria minha torre para R2″, disse. “No xadrez, em geral é bom tentar abrir suas peças o mais rápido possível”.

O ChatGPT é o que os pesquisadores chamam de rede neural, um sistema matemático mais ou menos modelado a partir da rede de neurônios do cérebro. É a mesma tecnologia que traduz entre inglês e espanhol em serviços como o Google Tradutor e identifica pedestres enquanto carros autônomos percorrem as ruas da cidade.

“Precisamos de uma mudança. Não podemos mais julgar inteligência comparando máquinas ao comportamento humano”

Oren Etzioni

Uma rede neural aprende habilidades analisando dados. Ao identificar padrões em milhares de fotos de sinais de parada, por exemplo, consegue aprender a reconhecer um sinal de parada. Cinco anos atrás, Google, OpenAI e outros laboratórios de IA começaram a projetar redes neurais que analisavam enormes quantidades de texto digital, como livros, notícias, artigos da Wikipédia e registros de bate-papo online. Os pesquisadores os chamam de “grandes modelos de linguagem”. Identificando bilhões de padrões distintos na forma como as pessoas conectam palavras, letras e símbolos, esses sistemas aprenderam a gerar seu próprio texto.Eles podem criar tweets, postagens em blogs, poemas e até programas de computador. Sabem manter uma conversa – pelo menos até certo ponto. E, ao fazê-lo, conseguem combinar perfeitamente conceitos distantes. Você pode pedir que ela fale sobre a vida de um pesquisador acadêmico de pós-doutorado – e eles o farão.

O problema é que, embora suas habilidades linguísticas sejam impressionantes, as palavras e ideias nem sempre são fundamentadas por aquilo que a maioria das pessoas chamaria de razão ou bom senso. Os sistemas escrevem receitas sem levar em conta o sabor da comida. Fazem pouca distinção entre fato e ficção. Sugerem jogadas de xadrez com total confiança, mesmo quando não entendem a situação do jogo. O ChatGPT vai bem nas perguntas e respostas, mas tende a falhar quando você o leva para outras direções.

DALL-E.

Wall-E, animação da Pixar sobre um robozinho carismático  Foto: Disney Pixar

Homenagem a WALL-E, o filme de animação de 2008 sobre um robô autônomo, e a Salvador Dalí, o pintor surrealista, essa tecnologia experimental possibilita criar imagens digitais simplesmente descrevendo o que você quer ver. Também é uma rede neural, construída de forma muito parecida com Franz Broseph ou o ChatGPT. A diferença é que ele aprende tanto com imagens quanto com textos. Analisando milhões de imagens digitais e as legendas que as descrevem, ele aprendeu a reconhecer as ligações entre imagens e palavras.Isso é conhecido como sistema multimodal. Google, OpenAI e outras organizações já estão usando métodos semelhantes para construir sistemas que podem gerar vídeos de pessoas e objetos. Estes não são sistemas que qualquer um possa avaliar adequadamente com o teste de Turing – ou qualquer outro método simples. Seu objetivo final não é a conversa.

Pesquisadores do Google e da DeepMind, que pertence à empresa controladora do Google, estão desenvolvendo testes destinados a avaliar chatbots e sistemas como o DALL-E, para ver o que eles fazem bem, onde carecem de razão e bom senso e muito mais. Um teste mostra vídeos para sistemas de inteligência artificial e pede que expliquem o que está acontecendo. Depois de assistir a alguém mexendo em um barbeador elétrico, por exemplo, a IA precisa explicar por que o barbeador não ligou.Esses testes parecem exercícios acadêmicos – assim como o teste de Turing. Precisamos de algo que seja mais prático, que possa realmente nos dizer o que esses sistemas fazem bem e o que não conseguem fazer, como vão substituir o trabalho humano no curto prazo e como não vão.

Também poderíamos nos beneficiar de uma mudança de atitude. “Precisamos de uma mudança de paradigma – onde não julgamos mais a inteligência comparando as máquinas ao comportamento humano”, disse Oren Etzioni, professor emérito da Universidade de Washington e presidente-executivo fundador do Allen Institute for AI, um importante laboratório em Seattle.

As tecnologias ainda não lidam com conceitos que nunca viram antes – não podem pegar ideias para explorá-las livremente

O teste de Turing avaliava se a máquina conseguia imitar um ser humano. É assim que normalmente se retrata a inteligência artificial – como o surgimento de máquinas que pensam como pessoas. Mas as tecnologias em desenvolvimento hoje são muito diferentes de você e de mim. Elas não conseguem lidar com conceitos que nunca viram antes. E não podem pegar ideias e explorá-las no mundo físico.

Ao mesmo tempo, há muitas maneiras pelas quais esses bots são superiores a você e a mim. Eles não se cansam. Não deixam a emoção atrapalhar o que estão tentando fazer. Podem extrair quantidades muito maiores de informações instantaneamente. E conseguem gerar textos, imagens e outras mídias em velocidades e volumes que nós, humanos, jamais conseguiríamos.

Suas habilidades também vão melhorar consideravelmente com o passar do tempo. Nos próximos meses e anos, esses bots vão ajudar você a encontrar informações na internet. Vão explicar os conceitos de maneiras que você possa entender. E, se você quiser, vão até mesmo escrever seus tweets, postagens em blog e trabalhos de conclusão de curso.”Este será o próximo passo da Pixar: filmes superpersonalizados que qualquer pessoa vai poder criar muito rapidamente”, disse Bryan McCann, ex-cientista de pesquisa da Salesforce, que está explorando chatbots e outras tecnologias de IA em uma startup chamada You.com.

Como o ChatGPT e o DALL-E mostraram, essas coisas serão chocantes, fascinantes e divertidas. E nos deixarão imaginando como tudo isso mudará nossas vidas. O que vai acontecer com as pessoas que fazem filmes? Essa tecnologia inundará a internet com imagens que parecem reais, mas não são? Seus erros vão nos deixar perdidos?l TRADUÇÃO DE RENATO PRELORENTZOU

Por mais de 70 anos, cientistas da computação tiveram dificuldade para construir uma tecnologia que conseguisse passar no famoso ‘Jogo de Imitação’ do cientista Alan Turing: o ponto de inflexão tecnológica em que nós, humanos, não temos mais certeza se estamos conversando com uma máquina ou com uma pessoa.

Matemático e filósofo britânico decifrador de códigos de guerra, ele acreditava que o teste conseguiria mostrar ao mundo o momento em que as máquinas finalmente atingissem a ampla inteligência. Isso em 1950. O teste de Turing é uma medida subjetiva. Depende de quanto as pessoas que fazem as perguntas se sentem convencidas de que estão falando com outra pessoa quando, na verdade, estão conversando com um dispositivo. Mas, independentemente de quem esteja fazendo as perguntas, as máquinas logo deixarão esse teste no espelho retrovisor.

O cientista Alan Turing foi responsável pela invenção do 'Jogo de Imitação' Foto: Reuters

Hoje, bots já passaram no teste em situações específicas, como ligar para um restaurante e fazer reservas para o jantar. O ChatGPT, bot lançado em novembro pelo OpenAI, um laboratório de São Francisco, deixa as pessoas com a sensação de que estão conversando com outra pessoa, não com um bot. O laboratório disse que mais de um milhão de pessoas já o usaram. Como o ChatGPT pode escrever praticamente qualquer coisa, até mesmo trabalhos de conclusão de curso, universidades temem que a máquina possa acabar com as tarefas escolares. Quando algumas pessoas falam com esses bots, elas até os descrevem como sencientes ou conscientes, acreditando que as máquinas de alguma forma desenvolveram uma consciência do mundo ao seu redor.

A OpenAI construiu um sistema, o GPT-4, que é ainda mais poderoso que o ChatGPT. Além de palavras, pode até gerar imagens. E, no entanto, esses bots não são sencientes. Não são conscientes. Não são inteligentes – pelo menos não da maneira como os humanos são inteligentes. Até mesmo as pessoas que constroem a tecnologia reconhecem esse fato.Esses bots são muito bons em certos tipos de conversa, mas não conseguem responder ao inesperado tão bem quanto a maioria dos humanos. Às vezes falam bobagens e não conseguem corrigir os próprios erros. Parte do problema é que, quando um bot imita uma conversa, ele pode parecer mais inteligente do que realmente é. O teste de Turing não considera que nós, humanos, somos ingênuos por natureza, que as palavras podem facilmente nos levar a acreditar em algo que não é verdade.

JOGO DE IMITAÇÃO

Cena do filme 'O Jogo da Imitação', de Morten Tyldum, com Benedict Cumberbatch, Keira Knightley e Matthew Goode Foto: Netflix

Em 1950, Alan Turing publicou um artigo chamado Computing Machinery and Intelligence. Quinze anos depois que suas ideias ajudaram a gerar os primeiros computadores do mundo, ele propôs uma maneira de determinar se essas novas máquinas podiam pensar. Na época, o mundo científico tinha dificuldade de entender o que era um computador. Era um cérebro digital? Ou era outra coisa? Ele chamou-a de “jogo da imitação”. O teste envolvia duas longas conversas – uma com uma máquina e outra com um ser humano. Ambas as conversas seriam conduzidas via texto, para que a pessoa do outro lado não soubesse de imediato com quem estava falando. Se a pessoa não conseguisse perceber a diferença entre as duas trocas à medida que as conversas avançavam, então dava para dizer que a máquina conseguia pensar.

”O método de perguntas e respostas parece adequado para introduzir quase qualquer um dos campos do empreendimento humano que quisermos abarcar”, escreveu Turing. O teste poderia abranger tudo, desde poesia até matemática, explicou ele. Quando Turing propôs o teste, os computadores não conseguiam conversar. Os cientistas se comunicavam com máquinas do tamanho de uma sala alimentando instruções matemáticas e textuais em tubos de vácuo por meio de máquinas de escrever, fitas magnéticas e cartões perfurados. Mas conforme os anos passavam, pesquisadores criavam um campo que chamaram de inteligência artificial.

Em meados da década de 1960, as máquinas não conseguiam conversar muito. Mas, mesmo assim, enganavam as pessoas fazendo-as acreditar que eram mais inteligentes do que eram de fato. Nas décadas seguintes, os chatbots se aperfeiçoaram a passo de tartaruga. O melhor que os pesquisadores podiam fazer era estabelecer uma longa lista de regras definindo como um bot deveria se comportar. E não importa quantas regras eles escrevessem, nunca eram suficientes. O escopo da linguagem natural era grande demais.

Um camelo tem algo entre duas ou quatro patas, talvez três

Robô Eugene Goostman

Em 2014, depois de quase sessenta anos de pesquisa em IA, três pesquisadores de São Petersburgo, na Rússia, construíram um bot, chamado Eugene Goostman, que imitava um ucraniano de 13 anos que tinha aprendido inglês como segunda língua. Mas as alegações de seus criadores – e da mídia – de que a máquina havia passado no teste de Turing eram muito exageradas.

Quando lhe perguntaram: “O que é maior, uma caixa de sapatos ou o Monte Everest?”, o bot disse: “Não consigo fazer uma escolha agora”. Quando lhe perguntaram: “Quantas patas tem um camelo?”, ele respondeu: “Algo entre dois e quatro. Talvez, três?”.

Então, cerca de três anos depois, pesquisadores de lugares como Google e OpenAI começaram a construir um novo tipo de inteligência artificial. Certa manhã semanas atrás, fiz ao ChatGPT as mesmas perguntas que Turing fizera em seu artigo de 1950. De imediato, ele gerou um poema sobre a Forth Bridge: ”Sua tinta vermelha brilha ao sol da manhã/Um espetáculo para ser visto, para todos verem /Sua majestade e grandeza com afã.”

O controverso ChatGPT Foto: Reuters

Não precisou de trinta segundos para isso. “Quando expus o cenário final de um jogo de xadrez como Turing fizera, respondeu com sua prosa sempre clara, concisa e confiante. Parecia entender a situação. Mas não estava entendendo nada”. O ChatGPT confundiu o fim do jogo com o começo. “Eu moveria minha torre para R2″, disse. “No xadrez, em geral é bom tentar abrir suas peças o mais rápido possível”.

O ChatGPT é o que os pesquisadores chamam de rede neural, um sistema matemático mais ou menos modelado a partir da rede de neurônios do cérebro. É a mesma tecnologia que traduz entre inglês e espanhol em serviços como o Google Tradutor e identifica pedestres enquanto carros autônomos percorrem as ruas da cidade.

“Precisamos de uma mudança. Não podemos mais julgar inteligência comparando máquinas ao comportamento humano”

Oren Etzioni

Uma rede neural aprende habilidades analisando dados. Ao identificar padrões em milhares de fotos de sinais de parada, por exemplo, consegue aprender a reconhecer um sinal de parada. Cinco anos atrás, Google, OpenAI e outros laboratórios de IA começaram a projetar redes neurais que analisavam enormes quantidades de texto digital, como livros, notícias, artigos da Wikipédia e registros de bate-papo online. Os pesquisadores os chamam de “grandes modelos de linguagem”. Identificando bilhões de padrões distintos na forma como as pessoas conectam palavras, letras e símbolos, esses sistemas aprenderam a gerar seu próprio texto.Eles podem criar tweets, postagens em blogs, poemas e até programas de computador. Sabem manter uma conversa – pelo menos até certo ponto. E, ao fazê-lo, conseguem combinar perfeitamente conceitos distantes. Você pode pedir que ela fale sobre a vida de um pesquisador acadêmico de pós-doutorado – e eles o farão.

O problema é que, embora suas habilidades linguísticas sejam impressionantes, as palavras e ideias nem sempre são fundamentadas por aquilo que a maioria das pessoas chamaria de razão ou bom senso. Os sistemas escrevem receitas sem levar em conta o sabor da comida. Fazem pouca distinção entre fato e ficção. Sugerem jogadas de xadrez com total confiança, mesmo quando não entendem a situação do jogo. O ChatGPT vai bem nas perguntas e respostas, mas tende a falhar quando você o leva para outras direções.

DALL-E.

Wall-E, animação da Pixar sobre um robozinho carismático  Foto: Disney Pixar

Homenagem a WALL-E, o filme de animação de 2008 sobre um robô autônomo, e a Salvador Dalí, o pintor surrealista, essa tecnologia experimental possibilita criar imagens digitais simplesmente descrevendo o que você quer ver. Também é uma rede neural, construída de forma muito parecida com Franz Broseph ou o ChatGPT. A diferença é que ele aprende tanto com imagens quanto com textos. Analisando milhões de imagens digitais e as legendas que as descrevem, ele aprendeu a reconhecer as ligações entre imagens e palavras.Isso é conhecido como sistema multimodal. Google, OpenAI e outras organizações já estão usando métodos semelhantes para construir sistemas que podem gerar vídeos de pessoas e objetos. Estes não são sistemas que qualquer um possa avaliar adequadamente com o teste de Turing – ou qualquer outro método simples. Seu objetivo final não é a conversa.

Pesquisadores do Google e da DeepMind, que pertence à empresa controladora do Google, estão desenvolvendo testes destinados a avaliar chatbots e sistemas como o DALL-E, para ver o que eles fazem bem, onde carecem de razão e bom senso e muito mais. Um teste mostra vídeos para sistemas de inteligência artificial e pede que expliquem o que está acontecendo. Depois de assistir a alguém mexendo em um barbeador elétrico, por exemplo, a IA precisa explicar por que o barbeador não ligou.Esses testes parecem exercícios acadêmicos – assim como o teste de Turing. Precisamos de algo que seja mais prático, que possa realmente nos dizer o que esses sistemas fazem bem e o que não conseguem fazer, como vão substituir o trabalho humano no curto prazo e como não vão.

Também poderíamos nos beneficiar de uma mudança de atitude. “Precisamos de uma mudança de paradigma – onde não julgamos mais a inteligência comparando as máquinas ao comportamento humano”, disse Oren Etzioni, professor emérito da Universidade de Washington e presidente-executivo fundador do Allen Institute for AI, um importante laboratório em Seattle.

As tecnologias ainda não lidam com conceitos que nunca viram antes – não podem pegar ideias para explorá-las livremente

O teste de Turing avaliava se a máquina conseguia imitar um ser humano. É assim que normalmente se retrata a inteligência artificial – como o surgimento de máquinas que pensam como pessoas. Mas as tecnologias em desenvolvimento hoje são muito diferentes de você e de mim. Elas não conseguem lidar com conceitos que nunca viram antes. E não podem pegar ideias e explorá-las no mundo físico.

Ao mesmo tempo, há muitas maneiras pelas quais esses bots são superiores a você e a mim. Eles não se cansam. Não deixam a emoção atrapalhar o que estão tentando fazer. Podem extrair quantidades muito maiores de informações instantaneamente. E conseguem gerar textos, imagens e outras mídias em velocidades e volumes que nós, humanos, jamais conseguiríamos.

Suas habilidades também vão melhorar consideravelmente com o passar do tempo. Nos próximos meses e anos, esses bots vão ajudar você a encontrar informações na internet. Vão explicar os conceitos de maneiras que você possa entender. E, se você quiser, vão até mesmo escrever seus tweets, postagens em blog e trabalhos de conclusão de curso.”Este será o próximo passo da Pixar: filmes superpersonalizados que qualquer pessoa vai poder criar muito rapidamente”, disse Bryan McCann, ex-cientista de pesquisa da Salesforce, que está explorando chatbots e outras tecnologias de IA em uma startup chamada You.com.

Como o ChatGPT e o DALL-E mostraram, essas coisas serão chocantes, fascinantes e divertidas. E nos deixarão imaginando como tudo isso mudará nossas vidas. O que vai acontecer com as pessoas que fazem filmes? Essa tecnologia inundará a internet com imagens que parecem reais, mas não são? Seus erros vão nos deixar perdidos?l TRADUÇÃO DE RENATO PRELORENTZOU

Por mais de 70 anos, cientistas da computação tiveram dificuldade para construir uma tecnologia que conseguisse passar no famoso ‘Jogo de Imitação’ do cientista Alan Turing: o ponto de inflexão tecnológica em que nós, humanos, não temos mais certeza se estamos conversando com uma máquina ou com uma pessoa.

Matemático e filósofo britânico decifrador de códigos de guerra, ele acreditava que o teste conseguiria mostrar ao mundo o momento em que as máquinas finalmente atingissem a ampla inteligência. Isso em 1950. O teste de Turing é uma medida subjetiva. Depende de quanto as pessoas que fazem as perguntas se sentem convencidas de que estão falando com outra pessoa quando, na verdade, estão conversando com um dispositivo. Mas, independentemente de quem esteja fazendo as perguntas, as máquinas logo deixarão esse teste no espelho retrovisor.

O cientista Alan Turing foi responsável pela invenção do 'Jogo de Imitação' Foto: Reuters

Hoje, bots já passaram no teste em situações específicas, como ligar para um restaurante e fazer reservas para o jantar. O ChatGPT, bot lançado em novembro pelo OpenAI, um laboratório de São Francisco, deixa as pessoas com a sensação de que estão conversando com outra pessoa, não com um bot. O laboratório disse que mais de um milhão de pessoas já o usaram. Como o ChatGPT pode escrever praticamente qualquer coisa, até mesmo trabalhos de conclusão de curso, universidades temem que a máquina possa acabar com as tarefas escolares. Quando algumas pessoas falam com esses bots, elas até os descrevem como sencientes ou conscientes, acreditando que as máquinas de alguma forma desenvolveram uma consciência do mundo ao seu redor.

A OpenAI construiu um sistema, o GPT-4, que é ainda mais poderoso que o ChatGPT. Além de palavras, pode até gerar imagens. E, no entanto, esses bots não são sencientes. Não são conscientes. Não são inteligentes – pelo menos não da maneira como os humanos são inteligentes. Até mesmo as pessoas que constroem a tecnologia reconhecem esse fato.Esses bots são muito bons em certos tipos de conversa, mas não conseguem responder ao inesperado tão bem quanto a maioria dos humanos. Às vezes falam bobagens e não conseguem corrigir os próprios erros. Parte do problema é que, quando um bot imita uma conversa, ele pode parecer mais inteligente do que realmente é. O teste de Turing não considera que nós, humanos, somos ingênuos por natureza, que as palavras podem facilmente nos levar a acreditar em algo que não é verdade.

JOGO DE IMITAÇÃO

Cena do filme 'O Jogo da Imitação', de Morten Tyldum, com Benedict Cumberbatch, Keira Knightley e Matthew Goode Foto: Netflix

Em 1950, Alan Turing publicou um artigo chamado Computing Machinery and Intelligence. Quinze anos depois que suas ideias ajudaram a gerar os primeiros computadores do mundo, ele propôs uma maneira de determinar se essas novas máquinas podiam pensar. Na época, o mundo científico tinha dificuldade de entender o que era um computador. Era um cérebro digital? Ou era outra coisa? Ele chamou-a de “jogo da imitação”. O teste envolvia duas longas conversas – uma com uma máquina e outra com um ser humano. Ambas as conversas seriam conduzidas via texto, para que a pessoa do outro lado não soubesse de imediato com quem estava falando. Se a pessoa não conseguisse perceber a diferença entre as duas trocas à medida que as conversas avançavam, então dava para dizer que a máquina conseguia pensar.

”O método de perguntas e respostas parece adequado para introduzir quase qualquer um dos campos do empreendimento humano que quisermos abarcar”, escreveu Turing. O teste poderia abranger tudo, desde poesia até matemática, explicou ele. Quando Turing propôs o teste, os computadores não conseguiam conversar. Os cientistas se comunicavam com máquinas do tamanho de uma sala alimentando instruções matemáticas e textuais em tubos de vácuo por meio de máquinas de escrever, fitas magnéticas e cartões perfurados. Mas conforme os anos passavam, pesquisadores criavam um campo que chamaram de inteligência artificial.

Em meados da década de 1960, as máquinas não conseguiam conversar muito. Mas, mesmo assim, enganavam as pessoas fazendo-as acreditar que eram mais inteligentes do que eram de fato. Nas décadas seguintes, os chatbots se aperfeiçoaram a passo de tartaruga. O melhor que os pesquisadores podiam fazer era estabelecer uma longa lista de regras definindo como um bot deveria se comportar. E não importa quantas regras eles escrevessem, nunca eram suficientes. O escopo da linguagem natural era grande demais.

Um camelo tem algo entre duas ou quatro patas, talvez três

Robô Eugene Goostman

Em 2014, depois de quase sessenta anos de pesquisa em IA, três pesquisadores de São Petersburgo, na Rússia, construíram um bot, chamado Eugene Goostman, que imitava um ucraniano de 13 anos que tinha aprendido inglês como segunda língua. Mas as alegações de seus criadores – e da mídia – de que a máquina havia passado no teste de Turing eram muito exageradas.

Quando lhe perguntaram: “O que é maior, uma caixa de sapatos ou o Monte Everest?”, o bot disse: “Não consigo fazer uma escolha agora”. Quando lhe perguntaram: “Quantas patas tem um camelo?”, ele respondeu: “Algo entre dois e quatro. Talvez, três?”.

Então, cerca de três anos depois, pesquisadores de lugares como Google e OpenAI começaram a construir um novo tipo de inteligência artificial. Certa manhã semanas atrás, fiz ao ChatGPT as mesmas perguntas que Turing fizera em seu artigo de 1950. De imediato, ele gerou um poema sobre a Forth Bridge: ”Sua tinta vermelha brilha ao sol da manhã/Um espetáculo para ser visto, para todos verem /Sua majestade e grandeza com afã.”

O controverso ChatGPT Foto: Reuters

Não precisou de trinta segundos para isso. “Quando expus o cenário final de um jogo de xadrez como Turing fizera, respondeu com sua prosa sempre clara, concisa e confiante. Parecia entender a situação. Mas não estava entendendo nada”. O ChatGPT confundiu o fim do jogo com o começo. “Eu moveria minha torre para R2″, disse. “No xadrez, em geral é bom tentar abrir suas peças o mais rápido possível”.

O ChatGPT é o que os pesquisadores chamam de rede neural, um sistema matemático mais ou menos modelado a partir da rede de neurônios do cérebro. É a mesma tecnologia que traduz entre inglês e espanhol em serviços como o Google Tradutor e identifica pedestres enquanto carros autônomos percorrem as ruas da cidade.

“Precisamos de uma mudança. Não podemos mais julgar inteligência comparando máquinas ao comportamento humano”

Oren Etzioni

Uma rede neural aprende habilidades analisando dados. Ao identificar padrões em milhares de fotos de sinais de parada, por exemplo, consegue aprender a reconhecer um sinal de parada. Cinco anos atrás, Google, OpenAI e outros laboratórios de IA começaram a projetar redes neurais que analisavam enormes quantidades de texto digital, como livros, notícias, artigos da Wikipédia e registros de bate-papo online. Os pesquisadores os chamam de “grandes modelos de linguagem”. Identificando bilhões de padrões distintos na forma como as pessoas conectam palavras, letras e símbolos, esses sistemas aprenderam a gerar seu próprio texto.Eles podem criar tweets, postagens em blogs, poemas e até programas de computador. Sabem manter uma conversa – pelo menos até certo ponto. E, ao fazê-lo, conseguem combinar perfeitamente conceitos distantes. Você pode pedir que ela fale sobre a vida de um pesquisador acadêmico de pós-doutorado – e eles o farão.

O problema é que, embora suas habilidades linguísticas sejam impressionantes, as palavras e ideias nem sempre são fundamentadas por aquilo que a maioria das pessoas chamaria de razão ou bom senso. Os sistemas escrevem receitas sem levar em conta o sabor da comida. Fazem pouca distinção entre fato e ficção. Sugerem jogadas de xadrez com total confiança, mesmo quando não entendem a situação do jogo. O ChatGPT vai bem nas perguntas e respostas, mas tende a falhar quando você o leva para outras direções.

DALL-E.

Wall-E, animação da Pixar sobre um robozinho carismático  Foto: Disney Pixar

Homenagem a WALL-E, o filme de animação de 2008 sobre um robô autônomo, e a Salvador Dalí, o pintor surrealista, essa tecnologia experimental possibilita criar imagens digitais simplesmente descrevendo o que você quer ver. Também é uma rede neural, construída de forma muito parecida com Franz Broseph ou o ChatGPT. A diferença é que ele aprende tanto com imagens quanto com textos. Analisando milhões de imagens digitais e as legendas que as descrevem, ele aprendeu a reconhecer as ligações entre imagens e palavras.Isso é conhecido como sistema multimodal. Google, OpenAI e outras organizações já estão usando métodos semelhantes para construir sistemas que podem gerar vídeos de pessoas e objetos. Estes não são sistemas que qualquer um possa avaliar adequadamente com o teste de Turing – ou qualquer outro método simples. Seu objetivo final não é a conversa.

Pesquisadores do Google e da DeepMind, que pertence à empresa controladora do Google, estão desenvolvendo testes destinados a avaliar chatbots e sistemas como o DALL-E, para ver o que eles fazem bem, onde carecem de razão e bom senso e muito mais. Um teste mostra vídeos para sistemas de inteligência artificial e pede que expliquem o que está acontecendo. Depois de assistir a alguém mexendo em um barbeador elétrico, por exemplo, a IA precisa explicar por que o barbeador não ligou.Esses testes parecem exercícios acadêmicos – assim como o teste de Turing. Precisamos de algo que seja mais prático, que possa realmente nos dizer o que esses sistemas fazem bem e o que não conseguem fazer, como vão substituir o trabalho humano no curto prazo e como não vão.

Também poderíamos nos beneficiar de uma mudança de atitude. “Precisamos de uma mudança de paradigma – onde não julgamos mais a inteligência comparando as máquinas ao comportamento humano”, disse Oren Etzioni, professor emérito da Universidade de Washington e presidente-executivo fundador do Allen Institute for AI, um importante laboratório em Seattle.

As tecnologias ainda não lidam com conceitos que nunca viram antes – não podem pegar ideias para explorá-las livremente

O teste de Turing avaliava se a máquina conseguia imitar um ser humano. É assim que normalmente se retrata a inteligência artificial – como o surgimento de máquinas que pensam como pessoas. Mas as tecnologias em desenvolvimento hoje são muito diferentes de você e de mim. Elas não conseguem lidar com conceitos que nunca viram antes. E não podem pegar ideias e explorá-las no mundo físico.

Ao mesmo tempo, há muitas maneiras pelas quais esses bots são superiores a você e a mim. Eles não se cansam. Não deixam a emoção atrapalhar o que estão tentando fazer. Podem extrair quantidades muito maiores de informações instantaneamente. E conseguem gerar textos, imagens e outras mídias em velocidades e volumes que nós, humanos, jamais conseguiríamos.

Suas habilidades também vão melhorar consideravelmente com o passar do tempo. Nos próximos meses e anos, esses bots vão ajudar você a encontrar informações na internet. Vão explicar os conceitos de maneiras que você possa entender. E, se você quiser, vão até mesmo escrever seus tweets, postagens em blog e trabalhos de conclusão de curso.”Este será o próximo passo da Pixar: filmes superpersonalizados que qualquer pessoa vai poder criar muito rapidamente”, disse Bryan McCann, ex-cientista de pesquisa da Salesforce, que está explorando chatbots e outras tecnologias de IA em uma startup chamada You.com.

Como o ChatGPT e o DALL-E mostraram, essas coisas serão chocantes, fascinantes e divertidas. E nos deixarão imaginando como tudo isso mudará nossas vidas. O que vai acontecer com as pessoas que fazem filmes? Essa tecnologia inundará a internet com imagens que parecem reais, mas não são? Seus erros vão nos deixar perdidos?l TRADUÇÃO DE RENATO PRELORENTZOU

Por mais de 70 anos, cientistas da computação tiveram dificuldade para construir uma tecnologia que conseguisse passar no famoso ‘Jogo de Imitação’ do cientista Alan Turing: o ponto de inflexão tecnológica em que nós, humanos, não temos mais certeza se estamos conversando com uma máquina ou com uma pessoa.

Matemático e filósofo britânico decifrador de códigos de guerra, ele acreditava que o teste conseguiria mostrar ao mundo o momento em que as máquinas finalmente atingissem a ampla inteligência. Isso em 1950. O teste de Turing é uma medida subjetiva. Depende de quanto as pessoas que fazem as perguntas se sentem convencidas de que estão falando com outra pessoa quando, na verdade, estão conversando com um dispositivo. Mas, independentemente de quem esteja fazendo as perguntas, as máquinas logo deixarão esse teste no espelho retrovisor.

O cientista Alan Turing foi responsável pela invenção do 'Jogo de Imitação' Foto: Reuters

Hoje, bots já passaram no teste em situações específicas, como ligar para um restaurante e fazer reservas para o jantar. O ChatGPT, bot lançado em novembro pelo OpenAI, um laboratório de São Francisco, deixa as pessoas com a sensação de que estão conversando com outra pessoa, não com um bot. O laboratório disse que mais de um milhão de pessoas já o usaram. Como o ChatGPT pode escrever praticamente qualquer coisa, até mesmo trabalhos de conclusão de curso, universidades temem que a máquina possa acabar com as tarefas escolares. Quando algumas pessoas falam com esses bots, elas até os descrevem como sencientes ou conscientes, acreditando que as máquinas de alguma forma desenvolveram uma consciência do mundo ao seu redor.

A OpenAI construiu um sistema, o GPT-4, que é ainda mais poderoso que o ChatGPT. Além de palavras, pode até gerar imagens. E, no entanto, esses bots não são sencientes. Não são conscientes. Não são inteligentes – pelo menos não da maneira como os humanos são inteligentes. Até mesmo as pessoas que constroem a tecnologia reconhecem esse fato.Esses bots são muito bons em certos tipos de conversa, mas não conseguem responder ao inesperado tão bem quanto a maioria dos humanos. Às vezes falam bobagens e não conseguem corrigir os próprios erros. Parte do problema é que, quando um bot imita uma conversa, ele pode parecer mais inteligente do que realmente é. O teste de Turing não considera que nós, humanos, somos ingênuos por natureza, que as palavras podem facilmente nos levar a acreditar em algo que não é verdade.

JOGO DE IMITAÇÃO

Cena do filme 'O Jogo da Imitação', de Morten Tyldum, com Benedict Cumberbatch, Keira Knightley e Matthew Goode Foto: Netflix

Em 1950, Alan Turing publicou um artigo chamado Computing Machinery and Intelligence. Quinze anos depois que suas ideias ajudaram a gerar os primeiros computadores do mundo, ele propôs uma maneira de determinar se essas novas máquinas podiam pensar. Na época, o mundo científico tinha dificuldade de entender o que era um computador. Era um cérebro digital? Ou era outra coisa? Ele chamou-a de “jogo da imitação”. O teste envolvia duas longas conversas – uma com uma máquina e outra com um ser humano. Ambas as conversas seriam conduzidas via texto, para que a pessoa do outro lado não soubesse de imediato com quem estava falando. Se a pessoa não conseguisse perceber a diferença entre as duas trocas à medida que as conversas avançavam, então dava para dizer que a máquina conseguia pensar.

”O método de perguntas e respostas parece adequado para introduzir quase qualquer um dos campos do empreendimento humano que quisermos abarcar”, escreveu Turing. O teste poderia abranger tudo, desde poesia até matemática, explicou ele. Quando Turing propôs o teste, os computadores não conseguiam conversar. Os cientistas se comunicavam com máquinas do tamanho de uma sala alimentando instruções matemáticas e textuais em tubos de vácuo por meio de máquinas de escrever, fitas magnéticas e cartões perfurados. Mas conforme os anos passavam, pesquisadores criavam um campo que chamaram de inteligência artificial.

Em meados da década de 1960, as máquinas não conseguiam conversar muito. Mas, mesmo assim, enganavam as pessoas fazendo-as acreditar que eram mais inteligentes do que eram de fato. Nas décadas seguintes, os chatbots se aperfeiçoaram a passo de tartaruga. O melhor que os pesquisadores podiam fazer era estabelecer uma longa lista de regras definindo como um bot deveria se comportar. E não importa quantas regras eles escrevessem, nunca eram suficientes. O escopo da linguagem natural era grande demais.

Um camelo tem algo entre duas ou quatro patas, talvez três

Robô Eugene Goostman

Em 2014, depois de quase sessenta anos de pesquisa em IA, três pesquisadores de São Petersburgo, na Rússia, construíram um bot, chamado Eugene Goostman, que imitava um ucraniano de 13 anos que tinha aprendido inglês como segunda língua. Mas as alegações de seus criadores – e da mídia – de que a máquina havia passado no teste de Turing eram muito exageradas.

Quando lhe perguntaram: “O que é maior, uma caixa de sapatos ou o Monte Everest?”, o bot disse: “Não consigo fazer uma escolha agora”. Quando lhe perguntaram: “Quantas patas tem um camelo?”, ele respondeu: “Algo entre dois e quatro. Talvez, três?”.

Então, cerca de três anos depois, pesquisadores de lugares como Google e OpenAI começaram a construir um novo tipo de inteligência artificial. Certa manhã semanas atrás, fiz ao ChatGPT as mesmas perguntas que Turing fizera em seu artigo de 1950. De imediato, ele gerou um poema sobre a Forth Bridge: ”Sua tinta vermelha brilha ao sol da manhã/Um espetáculo para ser visto, para todos verem /Sua majestade e grandeza com afã.”

O controverso ChatGPT Foto: Reuters

Não precisou de trinta segundos para isso. “Quando expus o cenário final de um jogo de xadrez como Turing fizera, respondeu com sua prosa sempre clara, concisa e confiante. Parecia entender a situação. Mas não estava entendendo nada”. O ChatGPT confundiu o fim do jogo com o começo. “Eu moveria minha torre para R2″, disse. “No xadrez, em geral é bom tentar abrir suas peças o mais rápido possível”.

O ChatGPT é o que os pesquisadores chamam de rede neural, um sistema matemático mais ou menos modelado a partir da rede de neurônios do cérebro. É a mesma tecnologia que traduz entre inglês e espanhol em serviços como o Google Tradutor e identifica pedestres enquanto carros autônomos percorrem as ruas da cidade.

“Precisamos de uma mudança. Não podemos mais julgar inteligência comparando máquinas ao comportamento humano”

Oren Etzioni

Uma rede neural aprende habilidades analisando dados. Ao identificar padrões em milhares de fotos de sinais de parada, por exemplo, consegue aprender a reconhecer um sinal de parada. Cinco anos atrás, Google, OpenAI e outros laboratórios de IA começaram a projetar redes neurais que analisavam enormes quantidades de texto digital, como livros, notícias, artigos da Wikipédia e registros de bate-papo online. Os pesquisadores os chamam de “grandes modelos de linguagem”. Identificando bilhões de padrões distintos na forma como as pessoas conectam palavras, letras e símbolos, esses sistemas aprenderam a gerar seu próprio texto.Eles podem criar tweets, postagens em blogs, poemas e até programas de computador. Sabem manter uma conversa – pelo menos até certo ponto. E, ao fazê-lo, conseguem combinar perfeitamente conceitos distantes. Você pode pedir que ela fale sobre a vida de um pesquisador acadêmico de pós-doutorado – e eles o farão.

O problema é que, embora suas habilidades linguísticas sejam impressionantes, as palavras e ideias nem sempre são fundamentadas por aquilo que a maioria das pessoas chamaria de razão ou bom senso. Os sistemas escrevem receitas sem levar em conta o sabor da comida. Fazem pouca distinção entre fato e ficção. Sugerem jogadas de xadrez com total confiança, mesmo quando não entendem a situação do jogo. O ChatGPT vai bem nas perguntas e respostas, mas tende a falhar quando você o leva para outras direções.

DALL-E.

Wall-E, animação da Pixar sobre um robozinho carismático  Foto: Disney Pixar

Homenagem a WALL-E, o filme de animação de 2008 sobre um robô autônomo, e a Salvador Dalí, o pintor surrealista, essa tecnologia experimental possibilita criar imagens digitais simplesmente descrevendo o que você quer ver. Também é uma rede neural, construída de forma muito parecida com Franz Broseph ou o ChatGPT. A diferença é que ele aprende tanto com imagens quanto com textos. Analisando milhões de imagens digitais e as legendas que as descrevem, ele aprendeu a reconhecer as ligações entre imagens e palavras.Isso é conhecido como sistema multimodal. Google, OpenAI e outras organizações já estão usando métodos semelhantes para construir sistemas que podem gerar vídeos de pessoas e objetos. Estes não são sistemas que qualquer um possa avaliar adequadamente com o teste de Turing – ou qualquer outro método simples. Seu objetivo final não é a conversa.

Pesquisadores do Google e da DeepMind, que pertence à empresa controladora do Google, estão desenvolvendo testes destinados a avaliar chatbots e sistemas como o DALL-E, para ver o que eles fazem bem, onde carecem de razão e bom senso e muito mais. Um teste mostra vídeos para sistemas de inteligência artificial e pede que expliquem o que está acontecendo. Depois de assistir a alguém mexendo em um barbeador elétrico, por exemplo, a IA precisa explicar por que o barbeador não ligou.Esses testes parecem exercícios acadêmicos – assim como o teste de Turing. Precisamos de algo que seja mais prático, que possa realmente nos dizer o que esses sistemas fazem bem e o que não conseguem fazer, como vão substituir o trabalho humano no curto prazo e como não vão.

Também poderíamos nos beneficiar de uma mudança de atitude. “Precisamos de uma mudança de paradigma – onde não julgamos mais a inteligência comparando as máquinas ao comportamento humano”, disse Oren Etzioni, professor emérito da Universidade de Washington e presidente-executivo fundador do Allen Institute for AI, um importante laboratório em Seattle.

As tecnologias ainda não lidam com conceitos que nunca viram antes – não podem pegar ideias para explorá-las livremente

O teste de Turing avaliava se a máquina conseguia imitar um ser humano. É assim que normalmente se retrata a inteligência artificial – como o surgimento de máquinas que pensam como pessoas. Mas as tecnologias em desenvolvimento hoje são muito diferentes de você e de mim. Elas não conseguem lidar com conceitos que nunca viram antes. E não podem pegar ideias e explorá-las no mundo físico.

Ao mesmo tempo, há muitas maneiras pelas quais esses bots são superiores a você e a mim. Eles não se cansam. Não deixam a emoção atrapalhar o que estão tentando fazer. Podem extrair quantidades muito maiores de informações instantaneamente. E conseguem gerar textos, imagens e outras mídias em velocidades e volumes que nós, humanos, jamais conseguiríamos.

Suas habilidades também vão melhorar consideravelmente com o passar do tempo. Nos próximos meses e anos, esses bots vão ajudar você a encontrar informações na internet. Vão explicar os conceitos de maneiras que você possa entender. E, se você quiser, vão até mesmo escrever seus tweets, postagens em blog e trabalhos de conclusão de curso.”Este será o próximo passo da Pixar: filmes superpersonalizados que qualquer pessoa vai poder criar muito rapidamente”, disse Bryan McCann, ex-cientista de pesquisa da Salesforce, que está explorando chatbots e outras tecnologias de IA em uma startup chamada You.com.

Como o ChatGPT e o DALL-E mostraram, essas coisas serão chocantes, fascinantes e divertidas. E nos deixarão imaginando como tudo isso mudará nossas vidas. O que vai acontecer com as pessoas que fazem filmes? Essa tecnologia inundará a internet com imagens que parecem reais, mas não são? Seus erros vão nos deixar perdidos?l TRADUÇÃO DE RENATO PRELORENTZOU

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.