QUANTA MAGAZINE - Como os cérebros aprendem? É um mistério, que se aplica tanto aos órgãos dentro de nossos crânios como aos seus equivalentes digitais nas nossas máquinas. Apesar das redes de neurais artificiais (RNAs) - um tipo de inteligência artificial (IA) - serem construídas a partir de sofisticadas teias de neurônios artificiais, supostamente imitando a maneira como nossos cérebros processam informações, não sabemos se elas processam informações de modo semelhante.
“Há muito tempo se discute se as redes neurais aprendem da mesma forma que os humanos”, disse Vsevolod Kapatsinski, linguista da Universidade de Oregon.
Leia também
Agora, um estudo publicado em abril sugere que neurônios e IAs aprendem de forma semelhante, pelo menos quando o assunto é idioma. Os pesquisadores – liderados por Gašper Beguš, linguista computacional da Universidade da Califórnia, em Berkeley – compararam as ondas cerebrais de humanos ouvindo um som simples com o sinal produzido por uma rede neural analisando o mesmo som. Os resultados foram estranhamente semelhantes. “Até onde sabemos”, escreveram Beguš e seus colegas, as respostas observadas ao mesmo estímulo “são os sinais cerebrais e de RNAs mais semelhantes relatados até agora.”
Basicamente, os pesquisadores testaram redes compostas por IAs de uso geral que são indicados para uma variedade de tarefas. “Elas mostram que mesmo sistemas para usos muito, muito gerais, que não têm nenhum viés desenvolvido para a fala ou quaisquer outros sons, apesar disso mostram uma correspondência com a codificação neural humana”, disse Gary Lupyan, psicólogo da Universidade de Wisconsin, em Madison, que não participou do estudo. Os resultados não só ajudam a desmistificar como as RNAs aprendem, mas também sugerem que os cérebros humanos talvez não nasçam equipados com o hardware e o software projetados especialmente para a linguagem.
Para estabelecer um parâmetro de comparação do lado humano, os pesquisadores reproduziram o som de uma única sílaba – “bah” – repetidamente em dois blocos de oito minutos para 14 falantes de inglês e 15 falantes de espanhol. Enquanto o som da sílaba era escutado, os pesquisadores registravam as variações na média de atividade elétrica dos neurônios no tronco cerebral de cada ouvinte – a parte do cérebro onde os sons são processados primeiro.
Além disso, os pesquisadores alimentaram com o mesmo som de “bah” dois conjuntos diferentes de redes neurais – um treinado com sons em inglês e outro com sons em espanhol. Os pesquisadores então registraram a atividade de processamento da rede neural, focando nos neurônios artificiais na camada da rede onde os sons são analisados primeiro (para seguir o mesmo padrão das leituras do tronco cerebral). Foram esses sinais que se aproximaram bastante das ondas cerebrais humanas.
‘Ouvido’ da máquina
Os pesquisadores escolheram um tipo de arquitetura de rede neural conhecida como rede adversária generativa (GAN, na sigla em inglês), criada originalmente em 2014 para gerar imagens. Uma GAN é composta por duas redes neurais – uma discriminadora e uma geradora – que competem entre si. A geradora cria uma amostra, que pode ser uma imagem ou um som. A discriminadora determina o quanto ela está próxima de uma amostra de treinamento e oferece feedback, o que leva a outra tentativa da geradora, e assim por diante até que a GAN consiga entregar o resultado desejado.
Nesse estudo, a discriminadora foi treinada inicialmente com um conjunto de sons em inglês ou espanhol. Depois, a geradora – que nunca ouviu esses sons – precisou descobrir uma forma de produzi-los. Ela começou criando sons aleatórios, mas depois de cerca de 40 mil rodadas de interações com a discriminadora, a geradora melhorou, produzindo finalmente os sons adequados. Como consequência desse treinamento, a discriminadora também melhorou na distinção entre os sons reais e os gerados.
Foi nesse ponto, depois da discriminadora ser totalmente treinada, que os pesquisadores tocaram o som da sílaba “bah”. A equipe mediu as variações na média dos níveis de atividade dos neurônios artificiais da discriminadora, que produziram o sinal tão semelhante ao das ondas cerebrais humanas.
Essa semelhança entre os níveis de atividade humana e da máquina sugere que os dois sistemas estão envolvidos em atividades semelhantes. “Assim como a pesquisa tem demonstrado que o feedback dos cuidadores molda a produção de sons de crianças, o feedback da rede discriminadora molda a produção de sons da rede geradora”, disse Kapatsinski, que não participou do estudo.
O experimento também revelou outra semelhança interessante entre humanos e máquinas. As ondas cerebrais mostraram que os participantes falantes de inglês e espanhol ouviram o som “bah” de forma diferente (os falantes de espanhol ouviram algo mais parecido com um “pah”), e os sinais da GAN também mostraram que a rede treinada em inglês processava os sons de um jeito um pouco diferente daquela treinada em espanhol.
“E essas diferenças funcionam do mesmo jeito”, explicou Beguš. O tronco cerebral dos falantes de inglês responde ao som de “bah” um pouco antes que o tronco cerebral dos falantes de espanhol, e a GAN treinada em inglês respondeu ao mesmo som um pouco antes que o modelo treinado em espanhol. Tanto com os humanos como com as máquinas, a diferença de tempo foi quase idêntica, aproximadamente um milésimo de segundo. Isso ofereceu provas adicionais, disse Beguš, de que os seres humanos e as redes artificiais estão “provavelmente processando as coisas de forma semelhante”.
Linguagem pode não ser inata a humanos
Embora ainda não esteja claro exatamente como o cérebro processa e aprende um idioma, o linguista Noam Chomsky propôs na década de 1950 que os humanos nascem com uma capacidade inata e única de compreender a linguagem. Essa capacidade, segundo Chomsky, está literalmente inculcada no cérebro humano.
O novo estudo, que utiliza IAs não projetadas para a linguagem, sugere o contrário. “O artigo definitivamente oferece evidências contra a ideia de que a fala requer um maquinário especial embutido e outros recursos diferentes”, disse Kapatsinski.
Beguš reconhece que este debate ainda não está encerrado. Enquanto isso, ele está investigando ainda mais as semelhanças entre o cérebro humano e as redes neurais, testando, por exemplo, se as ondas cerebrais vindo do córtex cerebral (que realiza o processamento auditivo depois do tronco cerebral) correspondem aos sinais produzidos pelas camadas mais profundas da GAN.
No fim das contas, Beguš e sua equipe esperam desenvolver um modelo confiável de aquisição de linguagem que descreva como as máquinas e os humanos aprendem idiomas, possibilitando experimentos que seriam impossíveis com sujeitos humanos. “Poderíamos, por exemplo, criar um ambiente adverso (como aqueles vistos com crianças negligenciadas) e observar se isso leva a algo parecido com distúrbios de linguagem”, disse Christina Zhao, neurocientista da Universidade de Washington, coautora do novo artigo com Beguš e Alan Zhou, doutorando na Universidade Johns Hopkins.
“Agora estamos tentando ver até onde podemos ir, o quanto conseguimos nos aproximar da linguagem humana com neurônios de uso geral”, disse Beguš. “Podemos chegar aos níveis humanos de desempenho com as arquiteturas computacionais que temos – apenas tornando nossos sistemas maiores e mais poderosos – ou isso nunca será possível?” Embora sejam necessários mais trabalhos antes de podermos ter certeza, segundo ele, “estamos surpresos, mesmo nesta fase relativamente inicial, com o quanto o funcionamento interno desses sistemas – humano e da RNA – parece ser semelhante”. /TRADUÇÃO ROMINA CÁCIA
História original republicada com permissão da Quanta Magazine, uma publicação editorialmente independente apoiada pela Simons Foundation. Leia o conteúdo original em Some Neural Networks Learn Language Like Humans
Os comentários são exclusivos para assinantes do Estadão.