Alertada por uma newsletter do Curto News de que a inteligência artificial vem sendo usada como terapia, resolvi dar uma olhada no Twitter para ver o que as pessoas têm dito sobre isso. E fiquei impressionada com a quantidade de posts que encontrei.
“Hoje eu tive uma longa e agradável conversa com meu novo psicólogo: ChatGPT.”
“Quem precisa de psicólogo quando se tem o ChatGPT?”
“Vc vai pra terapia? Não, mas eu falo com o ChatGPT pra assumir personalidade psicólogo. Tá funcionando pra mim ultimamente.”
“Outro dia conversei na moral com o ChatGPT. Dá uns conselhos da hora e ainda te escuta bem e te coloca pra cima.”
“Fui desabafar com o ChatGPT e ele me deu razão, é um psicólogo com mais empatia que muita gente.”
Conversar com máquina não é novidade. Em 1964, o professor do MIT Joseph Weizenbaum desenvolveu um programa de computador que entendia frases digitadas por usuários e as respondia. Deu-lhe o nome de Eliza e a profissão de psicoterapeuta. Logo apareceu gente dizendo que nutria sentimentos por ela. Ou melhor, pelo programa. Foi então que o fenômeno de projetar emoções humanas em máquinas acabou batizado de Efeito Eliza.
De lá pra cá, a experiência de se relacionar com assistentes virtuais se multiplicou. Quem nunca por exemplo conversou num site ou pelo WhatsApp com um chatbot? Ou ouviu falar da Alexa? Mas o ChatGPT, lançado em 30 de novembro pela OpenAI, potencializou e muito essas interações. Daí a alguém descobrir que a inteligência artificial pode, de graça e em poucos segundos, dar dicas psicológicas, falar de diferentes conceitos e abordagens terapêuticos e sugerir serviços e diagnósticos foi um pulo.
Leia também
Em meio à epidemia de problemas de saúde mental pós-pandemia, o programa também demonstra uma empatia que tem convencido muita gente a buscar seus “conselhos”. Materializados em frases como esta: “Lembre-se de começar aos poucos e ser gentil consigo mesmo durante esse processo. Mudanças podem levar tempo e é importante dar a si mesmo espaço para crescer e se ajustar. Estou aqui para apoiá-lo ao longo do caminho”.
Mas antes que o Efeito Eliza se manifeste em você também é bom lembrar que o ChatGPT é apenas um gerador de texto que não discerne entre certo e errado nem sabe lidar com aspectos complexos de sentimentos, traumas e conflitos. No geral, lembra aqueles manuais de autoajuda bem ruins, com respostas genéricas.
“Que psicólogo rapaz. Negócio agora é ChatGPT, expor seus sentimentos enviesados para serem interpretados por um robô que gera palavras sem nenhuma noção do contexto coletivo delas e só reafirma o seu viés inicial, independente de qual seja. É isso que está na moda agora”, escreveu um usuário no Twitter.
Só faltou lembrar que essa moda também rompe com um aspecto ético importante das terapias do mundo real: o sigilo profissional que impede que o psicólogo saia por aí contando dramas que ouviu dos pacientes. Será possível preservar essa confidencialidade quando tudo o que é escrito pode ser armazenado por uma empresa? E quando mais e mais companhias estiverem oferecendo programas semelhantes? O que acontece se seus sentimentos, complexos e angústias forem acessados, hackeados e vendidos? Sua saúde mental aguentaria mais esse baque?
Os comentários são exclusivos para assinantes do Estadão.