Por que os chatbots de IA dizem mentiras e agem de maneira estranha? Olhe no espelho

Um dos pioneiros da inteligência artificial argumenta que os chatbots são frequentemente estimulados a produzir resultados estranhos pelas pessoas que os usam

PUBLICIDADE

Por Cade Metz

THE NEW YORK TIMES - LIFE/STYLE - Quando a Microsoft adicionou um chatbot ao seu mecanismo de busca Bing este mês, as pessoas perceberam que ele estava oferecendo todo tipo de informações falsas sobre a Gap, a vida noturna mexicana e a cantora Billie Eilish.

PUBLICIDADE

Então, quando jornalistas e outros verificadores iniciais tiveram longas conversas com o bot de inteligência artificial da Microsoft, ele passou a ter um comportamento grosseiro e irritantemente assustador.

Desde que o comportamento do bot do Bing se tornou uma sensação mundial, as pessoas tiveram dificuldades para entender a estranheza dessa nova criação. Na maioria das vezes, os cientistas dizem que os humanos merecem grande parte da culpa.

Mas ainda há um pouco de mistério sobre o que o novo chatbot pode fazer - e por que ele o faz. Sua complexidade faz com que seja difícil dissecá-lo e ainda mais difícil prevê-lo, e os pesquisadores estão olhando para ele através de lentes filosóficas, bem como do hardcode da ciência da computação.

Publicidade

Sam Altman, CEO da OpenAI, fala durante apresentação do novo mecanismo da Microsoft Foto: Ruth Fremson/The New York Times

Como qualquer outro aluno, um sistema de IA pode aprender informações erradas a partir de fontes ruins. E esse comportamento estranho? Pode ser o reflexo distorcido de um chatbot a partir das palavras e intenções das pessoas que o usam, disse Terry Sejnowski, neurocientista, psicólogo e cientista da computação que ajudou a estabelecer as bases intelectuais e técnicas para a IA moderna.

“Isso acontece quando você se aprofunda cada vez mais nesses sistemas”, disse Sejnowski, professor do Instituto Salk de Estudos Biológicos e da Universidade da Califórnia, San Diego, que publicou um trabalho de pesquisa sobre esse fenômeno este mês na revista científica Neural Computation. “O que quer que você esteja procurando - o que você deseja - eles fornecerão.”

O Google também exibiu um novo chatbot, o Bard, este mês, mas cientistas e jornalistas rapidamente perceberam que ele estava escrevendo bobagens sobre o Telescópio Espacial James Webb. A OpenAI, uma startup de São Francisco, começou o boom dos chatbots em novembro, quando introduziu o ChatGPT, que também nem sempre diz a verdade.

Os novos chatbots são movidos por uma tecnologia que os cientistas chamam de grandes modelos de linguagem, ou LLM. Esses sistemas aprendem analisando enormes quantidades de texto digital retirado da internet, que inclui volumes de material falso, tendencioso e tóxico. O texto com o qual os chatbots aprendem também está um pouco desatualizado, porque eles devem passar meses analisando-o antes que o público possa usá-los.

Publicidade

Ao analisar esse mar de informações adequadas ou equivocadas da internet, um LLM aprende a fazer uma coisa específica: adivinhar a próxima palavra em uma sequência de palavras.

Ele funciona como uma versão gigante da tecnologia de preenchimento automático que sugere a próxima palavra enquanto você digita um e-mail ou uma mensagem em seu smartphone. Dada a sequência “Tom Cruise é um ____”, ele pode adivinhar “ator”.

Quando você conversa com um chatbot, o bot não está apenas se baseando em tudo o que aprendeu na internet. Ele está se baseando em tudo o que você disse a ele e em tudo o que ele respondeu. Não é apenas adivinhar a próxima palavra em sua frase. É adivinhar a próxima palavra no longo bloco de texto que inclui suas palavras e as palavras dele.

'Se você persuadir um chatbot a ficar assustador, ele fica assustador', diz o neurocientista Terry Sejnowski Foto: John Francis Peters/The New York Times

Quanto mais longa a conversa, mais influência um usuário involuntariamente tem sobre o que o chatbot está dizendo. Se você quer que ele fique com raiva, ele fica com raiva, disse Sejnowski. Se você persuadi-lo a ficar assustador, ele fica assustador.

Publicidade

A Microsoft e a OpenAI decidiram que a única maneira de descobrir o que os chatbots farão no mundo real é deixá-los soltos - e capturá-los quando se desviarem. Eles acreditam que seu grande experimento público vale o risco.

Sejnowski comparou o comportamento do chatbot da Microsoft ao Espelho de Ojesed, um artefato místico nos romances “Harry Potter” de J.K. Rowling e nos muitos filmes baseados em seu mundo inventivo de jovens bruxos.

“Ojesed” é “desejo” escrito ao contrário. Quando as pessoas descobrem o espelho, ele parece fornecer verdade e compreensão. Mas isso não acontece. Ele mostra os desejos mais profundos de qualquer um que olha para ele. E algumas pessoas enlouquecem se olharem por muito tempo.

“Como o ser humano e os LLMs se espelham, com o tempo eles tenderão a um estado conceitual comum”, disse Sejnowski.

Publicidade

Em alta
Loading...Loading...
Loading...Loading...
Loading...Loading...

Não foi surpresa, ele disse, os jornalistas começarem a ver um comportamento assustador no chatbot do Bing. Consciente ou inconscientemente, eles estavam estimulando o sistema em uma direção desconfortável. À medida que os chatbots absorvem nossas palavras e as refletem de volta para nós, eles podem reforçar e ampliar nossas crenças e nos persuadir a acreditar no que eles estão nos dizendo.

Como esses sistemas aprendem com muito mais dados do que nós, humanos, jamais poderíamos imaginar, mesmo os especialistas em IA não conseguem entender por que eles geram um determinado trecho de texto em um dado momento.

Sejnowski disse acreditar que, a longo prazo, os novos chatbots terão o poder de tornar as pessoas mais eficientes e dar-lhes maneiras de fazer seu trabalho melhor e com mais rapidez. Mas isso vem com um aviso tanto para as empresas que constroem esses chatbots quanto para as pessoas que os usam: eles também podem nos afastar da verdade e nos levar a lugares sombrios.

“Esta é uma terra desconhecida”, disse Sejnowski. “Os humanos nunca experimentaram isso antes.” /TRADUÇÃO LÍVIA BUELONI GONÇALVES

Publicidade

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

Comentários

Os comentários são exclusivos para assinantes do Estadão.