PUBLICIDADE

Como saber se máquinas desenvolvem consciência? Busca por resposta intriga cientistas

Na tentativa de descobrir se sistemas de inteligência artificial podem ser considerados conscientes, especialistas estão esbarrando em limitações humanas

PUBLICIDADE

Por Oliver Whang

THE NEW YORK TIMES - A imprecisão da consciência tornou seu estudo um anátema nas ciências naturais. Pelo menos até recentemente, o projeto era deixado em grande parte para os filósofos, que muitas vezes eram apenas marginalmente melhores do que outros no esclarecimento de seu objeto de estudo. Hod Lipson, especialista em robótica da Universidade de Columbia, disse que algumas pessoas em seu campo se referiam à consciência como um palavrão. Grace Lindsay, neurocientista da Universidade de Nova York, disse: “Havia essa ideia de que não se pode estudar a consciência até que se tenha um cargo”.

No entanto, há algumas semanas, um grupo de filósofos, neurocientistas e cientistas da computação, entre eles a Dra. Lindsay, propôs uma rubrica para determinar se um sistema de inteligência artificial (IA), como o ChatGPT, poderia ser considerado consciente. O relatório, que examina o que a Dra. Lindsay chama de “novíssima” ciência da consciência, reúne elementos de meia dúzia de teorias empíricas nascentes e propõe uma lista de qualidades mensuráveis que podem sugerir a presença de alguma presença em uma máquina.

PUBLICIDADE

Por exemplo, a teoria do processamento recorrente concentra-se nas diferenças entre a percepção consciente (por exemplo, estudar ativamente uma maçã à sua frente) e a percepção inconsciente (como a sensação de uma maçã voando em direção ao seu rosto). Os neurocientistas argumentam que percebemos as coisas inconscientemente quando os sinais elétricos são passados dos nervos dos nossos olhos para o córtex visual primário e depois para partes mais profundas do cérebro, como um bastão sendo passado de um grupo de nervos para outro. Essas percepções parecem se tornar conscientes quando o bastão é passado de volta, das partes mais profundas do cérebro para o córtex visual primário, criando um ciclo de atividade.

Outra teoria descreve seções especializadas do cérebro que são usadas para tarefas específicas - a parte do cérebro que consegue equilibrar o corpo pesado em um pula-pula é diferente da parte do cérebro que consegue observar uma paisagem extensa. Somos capazes de reunir todas essas informações (você pode pular em um pula-pula enquanto aprecia uma bela vista), mas apenas até certo ponto (é difícil fazer isso). Assim, os neurocientistas postularam a existência de um “espaço de trabalho global” que permite o controle e a coordenação sobre o que prestamos atenção, o que lembramos e até mesmo o que percebemos. Nossa consciência pode surgir desse espaço de trabalho integrado e mutável.

Cientistas tentam definir padrões para tentar descobrir consciência em sistemas de IA Foto: Andy Wong/ AP

Mas ela também pode surgir da capacidade de estar ciente de sua própria consciência, de criar modelos virtuais do mundo, de prever experiências futuras e de localizar seu corpo no espaço. O relatório argumenta que qualquer um desses recursos poderia, potencialmente, ser uma parte essencial do que significa estar consciente. E, se formos capazes de discernir essas características em uma máquina, então poderemos considerar a máquina consciente.

Uma das dificuldades dessa abordagem é que os sistemas de IA mais avançados são redes neurais profundas que “aprendem” a fazer coisas por conta própria, de maneiras que nem sempre são interpretáveis por humanos. Podemos extrair alguns tipos de informações de sua estrutura interna, mas apenas de forma limitada, pelo menos por enquanto. Esse é o problema da caixa preta da IA. Portanto, mesmo que tivéssemos uma rubrica completa e exata de consciência, seria difícil aplicá-la às máquinas que usamos todos os dias.

E os autores do relatório recente não hesitam em observar que a lista deles não é definitiva sobre o que torna uma pessoa consciente. Eles se baseiam em um relato de “funcionalismo computacional”, segundo o qual a consciência é reduzida a pedaços de informações passadas para frente e para trás em um sistema, como em uma máquina de pinball. Em princípio, de acordo com essa visão, uma máquina de pinball poderia ser consciente, se fosse muito mais complexa. (Isso pode significar que ela não é mais uma máquina de pinball; vamos atravessar essa ponte se chegarmos a ela). Mas outros propuseram teorias que consideram nossas características biológicas ou físicas, contextos sociais ou culturais, como partes essenciais da consciência. É difícil ver como essas coisas poderiam ser codificadas em uma máquina.

Publicidade

E mesmo para os pesquisadores que estão amplamente de acordo com o funcionalismo computacional, nenhuma teoria existente parece ser suficiente para a consciência.

“Para que qualquer uma das conclusões do relatório seja significativa, as teorias precisam estar corretas”, disse a Dra. Lindsay. “O que não é o caso.” Isso pode ser apenas o melhor que podemos fazer por enquanto, acrescentou ela.

Afinal de contas, parece que qualquer uma dessas características, ou todas elas combinadas, compõem o que William James descreveu como o “calor” da experiência consciente? Ou, nas palavras de Thomas Nagel, “como é” ser você? Há uma lacuna entre as maneiras pelas quais podemos medir a experiência subjetiva com a ciência e a própria experiência subjetiva. Isso é o que David Chalmers chamou de “problema difícil” da consciência. Mesmo que um sistema de IA tenha processamento recorrente, um espaço de trabalho global e um senso de sua localização física, pode ser que ainda falte aquilo que o faz se sentir como algo

Quando falei sobre esse vazio para Robert Long, filósofo do Center for AI Safety que liderou o trabalho no relatório, ele disse: “Essa sensação é algo que acontece sempre que você tenta explicar cientificamente ou reduzir a processos físicos algum conceito de alto nível”.

CONTiNUA APÓS PUBLICIDADE

Os riscos são altos, acrescentou ele; os avanços em IA e aprendizado de máquina estão chegando mais rápido do que nossa capacidade de explicar o que está acontecendo. Em 2022, Blake Lemoine, engenheiro do Google, argumentou que o chatbot LaMDA da empresa era consciente (embora a maioria dos especialistas discordasse); a maior integração da IA generativa em nossas vidas significa que o tópico pode se tornar mais controverso. O Dr. Long argumenta que temos que começar a fazer algumas afirmações sobre o que pode ser consciente e lamenta a maneira “vaga e sensacionalista” com que lidamos com isso, muitas vezes confundindo experiência subjetiva com inteligência geral ou racionalidade. “Esse é um problema que enfrentaremos agora e nos próximos anos”, disse ele.

Como disse Megan Peters, neurocientista da Universidade da Califórnia, em Irvine, e autora do relatório: “O fato de haver alguém lá dentro ou não faz uma grande diferença na forma como tratamos o problema”.

Já fazemos esse tipo de pesquisa com animais, o que exige um estudo cuidadoso para fazer a afirmação mais básica de que outras espécies têm experiências semelhantes às nossas, ou até mesmo compreensíveis para nós. Isso pode se assemelhar a uma atividade doméstica divertida, como atirar flechas empíricas de plataformas móveis em direção a alvos que mudam de forma, com arcos que ocasionalmente se revelam espaguete. Mas, às vezes, conseguimos acertar. Como Peter Godfrey-Smith escreveu em seu livro “Metazoa”, os cefalópodes provavelmente têm um tipo de experiência subjetiva robusta, mas categoricamente diferente da dos seres humanos. Os polvos têm algo em torno de 40 milhões de neurônios em cada braço. Como é isso?

Publicidade

Contamos com uma série de observações, inferências e experimentos - organizados ou não - para resolver esse problema de outras mentes. Falamos, tocamos, brincamos, levantamos hipóteses, estimulamos, controlamos, fazemos raios-X e dissecamos, mas, em última análise, ainda não sabemos o que nos torna conscientes. Sabemos apenas que somos. /TRADUÇÃO BRUNO ROMANI

Comentários

Os comentários são exclusivos para assinantes do Estadão.