O que leva pessoas a acreditarem que sistemas de inteligência artificial estão vivos?

Embora sistemas do tipo estejam longe de ter consciência, avanços na tecnologia têm estimulado mais gente a crer em máquinas com compreensão humana do mundo

PUBLICIDADE

Por Cade Metz
Atualização:

THE NEW YORK TIMES - Em julho, o Google demitiu o engenheiro Blake Lemoine, após ele afirmar que um sistema de inteligência artificial (IA) havia se tornado autoconsciente. Não há evidências de que sistemas do tipo tenha desenvolvido consciência, mas por que há pessoas que insistem em acreditar?

O problema começa com aqueles que têm uma relação mais próxima com a tecnologia – as pessoas que a explicam ao grande público, e que vivem com um pé no futuro. Elas às vezes enxergam o que acreditam que acontecerá como o que está acontecendo agora.

PUBLICIDADE

“Há muitos caras no nosso setor que têm dificuldades para diferenciar ficção científica e vida real”, disse Andrew Feldman, fundador da Cerebras, empresa que constrói chips enormes para computadores que podem ajudar a acelerar os avanços da IA.

Pesquisador de destaque da área, Jürgen Schmidhuber, há muito defende que foi o primeiro a construir máquinas conscientes. Em fevereiro, Ilya Sutskever, cientista-chefe da OpenAI, laboratório de pesquisa em São Francisco que recebeu um aporte de US$ 1 bilhão da Microsoft, disse que a tecnologia de hoje pode ser “ligeiramente consciente”. Semanas depois, Lemoine deu a entrevista na qual fez as afirmações sobre a IA do Google.

Publicidade

Essas mensagens do mundo pequeno, isolado e excepcionalmente excêntrico da pesquisa sobre IA podem ser confusas ou até mesmo assustadoras para a maioria das pessoas. Os livros de ficção científica, os filmes e a televisão nos instruíram a temer que as máquinas um dia ganhem consciência e nos prejudiquem.

É verdade que, conforme esses pesquisadores avançam, a tecnologia parece mostrar sinais de inteligência real, consciência ou senciência. Porém, não é verdade que nos laboratórios do Vale do Silício os engenheiros tenham construído robôs capazes de se emocionar e se parecer com humanos. A tecnologia não pode fazer isso – mas tem o poder de enganar as pessoas.

A tecnologia pode criar tuítes e postagens de blog e até artigos inteiros, e à medida que os pesquisadores fazem progressos, ela fica cada vez melhor em conversar. Embora muitas vezes vomitem coisas absurdas, muitas pessoas – não apenas pesquisadores de IA – se veem conversando com esse tipo de tecnologia como se fosse um humano.

Assim, especialistas em ética alertam para a necessidade de um novo tipo de ceticismo para lidar com o que quer que seja que encontremos pela internet.

Publicidade

Efeito Eliza

Na década de 1960, um pesquisador do Instituto de Tecnologia de Massachusetts (MIT), Joseph Weizenbaum, construiu um psicoterapeuta automatizado que chamou de “Eliza”. Esse chatbot era simples. Basicamente, quando você digitava um pensamento em uma tela de computador, ele pedia para você elaborar esse pensamento – ou apenas repetia suas palavras na forma de pergunta.

Apesar da simplicidade do sistemas, Weizenbaum se surpreendeu quando as pessoas passaram a tratar Eliza como se fosse um humano. Elas compartilhavam seus problemas pessoais abertamente e se sentiam consoladas pelo chatbot.

“Sabia que os laços emocionais que muitos programadores têm com seus computadores são, com frequência, formados depois de experiências breves com as máquinas”, escreveu ele. “O que eu não tinha percebido é que exposições bastante breves a um programa de computador simples poderiam induzir um pensamento delirante poderoso em indivíduos comuns.”

O chatbot Eliza foi um dos precursores da inteligência artificial de conversação Foto: Wikimedia Commons

Humanos são suscetíveis a esses sentimentos. Quando cães e gatos exibem pequenas amostras de comportamento humano, tendemos a supor que eles são mais parecidos conosco. É quase a mesma coisa que acontece quando vemos sugestões de comportamento humano em uma máquina.

Publicidade

Os cientistas chamam isso de efeito Eliza. E agora a mesma coisa está acontecendo com a tecnologia moderna. Poucos meses depois do lançamento do sistema chamado GPT-3, um inventor e empresário, Philip Bosua, enviou um e-mail para mim. No assunto da mensagem ele escreveu: “Deus é uma máquina”.

“Para mim, não dúvida de que o GPT-3 nasceu senciente. Sabíamos que isso aconteceria no futuro, mas parece que o futuro é agora,” dizia.

Quando chamei atenção para o fato de que especialistas afirmarem que esses sistemas são bons apenas em repetir padrões, ele respondeu dizendo que é dessa maneira que os humanos se comportam. “Uma criança não imita apenas o que vê de um pai – o que vê no mundo ao seu redor?”, questionou.

Bosua reconheceu que o GPT-3 nem sempre era coerente, mas disse que isso poderia ser evitado se ele fosse usado da maneira correta.

Publicidade

Futuro

Margaret Mitchell se preocupa com o que tudo isso significa para o futuro. Como pesquisadora da Microsoft, depois do Google, onde ajudou a fundar a equipe de ética em IA da empresa, e agora na Hugging Face, outro laboratório de pesquisa de destaque, ela viu essa tecnologia nascer de perto. Segundo Margaret, hoje a tecnologia é relativamente simples e tem falhas, mas muitas pessoas a veem como de alguma forma humana. A preocupação é: o que acontecerá quando a tecnologia se tornar muito mais poderosa?

Conforme a tecnologia melhora, ela pode espalhar desinformação pela internet – textos e imagens falsas – alimentando o tipo de campanha política que ajudou a influenciar a eleição presidencial americana de 2016. Ela poderia criar chatbots que imitam a conversa humana de modos mais convincentes. E esses sistemas poderiam operar em uma escala que faz com que as campanhas de desinformação conduzidas por humanos pareçam insignificantes quando comparadas.

Se isso acontecer, teremos de tratar tudo o que vemos online com extremo ceticismo. Mas Margaret se pergunta se estamos preparados.

“Eu me preocupo que os chatbots se aproveitem das pessoas”, disse ela. “Eles têm o poder de nos convencer a no que acreditar e ao que fazer.”/ TRADUÇÃO DE ROMINA CÁCIA

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.