NEW YORK TIMES - Pense em tudo que passa pela sua cabeça: aquela piada de mau gosto que você sabiamente não contou no jantar, a imitação do novo parceiro da sua melhor amiga que você não mostrou para ninguém. Agora imagine se alguém conseguisse ler seus pensamentos.
Recentemente, cientistas da Universidade do Texas, em Austin, deram mais um passo em direção a isso. Em um estudo publicado na revista Nature Neuroscience, os pesquisadores descreveram uma inteligência artificial (IA) que poderia traduzir os pensamentos particulares de pessoas analisando imagens feitas com exames de ressonância magnética funcional, que medem o fluxo de sangue para regiões diferentes do cérebro.
Os pesquisadores já desenvolveram métodos de decodificação de linguagem para captar a tentativa de fala de pessoas que perderam essa capacidade e para permitir que pessoas paralisadas, de fato, escrevam enquanto estão apenas pensando em colocar suas ideias no papel.
Mas o novo decodificador de linguagem, porém, é um dos primeiros a não depender de implantes físicos no paciente. No estudo, ele foi capaz de transformar a fala imaginada de uma pessoa em uma mensagem de voz de verdade e, quando eram exibidos filmes sem som para os pacientes, a tecnologia conseguia gerar descrições relativamente precisas do que estava acontecendo na tela.
“Isso não é apenas um estímulo da linguagem”, disse Alexander Huth, neurocientista da Universidade do Texas que ajudou a conduzir a pesquisa. “Estamos insinuando o significado, algo sobre a ideia do que está acontecendo. E o fato de que isso seja possível é muito empolgante”.
No vídeo abaixo, a transcrição que aparece na parte inferior da tela é resultado da decodificação das informações cerebrais captadas de um dos participantes enquanto assistia à animação.
Experimento
O estudo centrou-se em três participantes, que ficaram no laboratório de Huth durante 16 horas por vários dias para escutar podcasts de histórias pessoais. Enquanto eles ouviam os programas, um aparelho de ressonância magnética funcional registrava os níveis de oxigenação do sangue em regiões de seus cérebros. Os pesquisadores então usaram um modelo de linguagem ampla para combinar padrões na atividade cerebral com as palavras e frases que os participantes tinham escutado.
Modelos de linguagem ampla como o GPT-4, da OpenAI, e o Bard, do Google, são treinados com quantidades imensas de texto para prever a próxima palavra numa frase. No processo, os modelos criam mapas indicando como as palavras se relacionam umas com as outras. Há alguns anos, Huth percebeu que partes específicas desses mapas – as chamadas incorporações contextuais, que capturam as características semânticas ou significados das frases – poderiam ser usadas para prever como o cérebro se ilumina em resposta à linguagem.
De forma básica, disse Shinji Nishimoto, neurocientista da Universidade Osaka, no Japão, que não esteve envolvido na pesquisa, “a atividade cerebral é mais ou menos como um sinal criptografado e os modelos de linguagem oferecem um modo de decifrá-lo”.
No estudo, Huth e seus colegas, na prática, inverteram o processo, usando outra IA para traduzir as imagens de ressonância magnética funcional dos participantes em palavras e frases. Os pesquisadores testaram o decodificador fazendo os participantes ouvirem novas gravações e, então, verificaram o quanto a tradução correspondia à transcrição real.
Quase todas as palavras estavam fora de ordem no segundo texto decodificado, mas o significado da passagem era frequentemente conservado. Basicamente, os decodificadores estavam parafraseando.
Transcrição original:
“Levantei do colchão inflável e pressionei minha cara contra a janela de vidro do quarto, na expectativa de ver olhos me encarando de volta. Mas, em vez disso, só encontrei a escuridão.”
Decodificação da atividade cerebral:
“Só continuei a caminhar até a janela e abri o vidro, levantei e olhei para fora, não vi nada e procurei de novo, não vi nada.”
Enquanto eram submetidos aos exames de ressonância magnética funcional, os participantes também foram solicitados a imaginar estarem contando uma história. Em seguida, eles repetiam a história em voz alta, para referência. Aqui, o modelo de decodificação também capturou a essência da versão imaginada.
Versão do participante:
“Procure uma mensagem da minha esposa dizendo que ela mudou de ideia e que estava voltando.”
Versão decodificada:
“Para vê-la, por algum motivo, pensei que ela viria até a mim e diria que sente minha falta.”
Por fim, os sujeitos assistiram a uma breve animação sem som, mais uma vez enquanto eram submetidos ao exame de ressonância magnética funcional. Ao analisar a atividade cerebral deles, o modelo de linguagem conseguiu decodificar uma sinopse aproximada do que eles estavam vendo – talvez a descrição interna do que eles estavam assistindo.
O resultado sugere que o decodificador de IA estava capturando não apenas as palavras, mas, também, o significado. “A percepção da linguagem é um processo conduzido externamente, enquanto a imaginação é um processo interno ativo”, disse Nishimoto. “E os autores mostraram que o cérebro usa representações comuns nesses processos.”
Apesar de ser um passo grande para uma possível “leitura de mentes”, esse método de decodificação de linguagem tem limitações, observaram Huth e seus colegas. Para começar, o equipamento para realizar ressonâncias magnéticas funcionais é enorme e caro. Além disso, treinar o modelo é um processo longo e tedioso e, para ser eficaz, deve ser realizado individualmente. Quando os pesquisadores tentaram usar um decodificador treinado com uma pessoa para ler a atividade cerebral de outra, não deu certo, sugerindo que cada cérebro tem sua forma única de representar significados.
Os participantes também conseguiram proteger seus monólogos internos, despistando o decodificador ao pensar em outras coisas. A IA talvez seja capaz de ler nossas mentes, mas, por ora, terá de lê-las uma de cada vez e com nossa permissão./TRADUÇÃO DE ROMINA CÁCIA
Os comentários são exclusivos para assinantes do Estadão.