Terapeutas de IA podem ser melhor do que nada, diz psicólogo Steven Pinker


Canadense avalia que os modelos de linguagem de grande escala, popularizados pelo Chat GPT, ainda não estão prontos para ajudar pacientes com transtornos de saúde mental ou para detectar problemas dessa ordem

Por Leon Ferrari
Atualização:

ENVIADO ESPECIAL AO RIO DE JANEIRO* - As tentativas de utilizar conceitos de inteligência artificial dentro do campo da saúde mental datam dos anos 1950, de acordo com o célebre psicólogo e linguista canadense Steven Pinker, autor do best-seller Enlightenment Now: The Case for Reason, Science, Humanism, and Progress, considerado mais de uma vez uma das 100 pessoas mais influentes do mundo para a revista Times. Para ele, a tecnologia pode ser grande aliada e terapeutas de IA podem ser “melhor do que nada”. No entanto, Pinker destaca que os modelos de linguagem de grande escala (LLM, em inglês), popularizados pelo ChatGPT, ainda não são a resposta.

“O problema com os grandes modelos de linguagem, que hoje em dia todos apontam como inteligência artificial, é que realmente não há muita inteligência ali”, disse ele na sexta-feira, 28, durante coletiva de imprensa no Congresso Brain 2024: Cérebro, Comportamento e Emoções, no Rio de Janeiro. Ele foi a atração principal do terceiro dia do evento, que ocorreu logo após o encontro com jornalistas, do qual o Estadão participou.

Célebre psicólogo e linguista canadense Steven Pinker no Brain Congress, no Rio de Janeiro Foto: Leandro Martins/Brain Congress
continua após a publicidade

Ele lembrou o trabalho do psicólogo americano Paul Meehl, que, em 1954, apontou que fórmulas estatísticas poderiam ser mais precisas que os clínicos em situações como prever comportamentos em saúde mental. “Nos anos 1950, não havia inteligência artificial, mas havia equações de regressão, e o que ele descobriu foi uma ‘bomba’”.

“Era uma fórmula estatística simples, com algumas variáveis como: o paciente já esteve deprimido antes? Por quanto tempo? Qual era a idade dele? Aí, ele comparou a previsão dela com a de psiquiatras para coisas como ‘será que o paciente será diagnosticado com um distúrbio específico nos próximos cinco anos?’ ou ‘será admitido em um hospital psiquiátrico?’. A fórmula teve um desempenho melhor do que todos os psiquiatras.”

Na visão dele, isso significa que a inteligência artificial pode sim ser uma boa aliada dos profissionais da saúde mental. “Não acho que haja uma diferença qualitativa entre um psiquiatra indo ao DSM-V (Manual Diagnóstico e Estatístico de Transtornos Mentais) ou indo a um algoritmo de computador. O DSM-5 é um monte de sintomas. É quase como um algoritmo. Acho (inclusive) que a teoria do algoritmo de inteligência artificial poderia ser mais útil do que manuais”.

continua após a publicidade

“Isso não significa que não há psiquiatra ou nenhum ser humano”, destaca. “Poderia ser uma ferramenta muito útil, porque a literatura psiquiátrica, de psicologia clínica, de psicopatologia, é enorme. Nenhum terapeuta humano pode conhecer toda a literatura. Isso é o tipo de coisa que os computadores podem ser melhores.”

Porém, ele destaca que, nessa tarefa, tecnologias como o Chat GPT não são aplicáveis. “Ele não tem expertise em distúrbios psiquiátricos em si”.

“Ou seja, não há conhecimento de fatos, de pessoas, não há teorias. Ele apenas pega todo o texto da World Wide Web, comprime, encontra padrões e tenta duplicar os padrões que já foram criados por humanos nas respostas às perguntas.”

continua após a publicidade

“A inteligência artificial clássica, que é mais algorítmica, passo a passo, pode ser depurada e questionada. Você pode ver por que ela respondeu o que respondeu. Ela se baseou em alguma referência ruim? Você não pode fazer isso com grandes modelos de linguagem. E isso, acho, é uma grande falha. Não significa que não seja solucionável, mas é uma limitação atual.”

Terapeuta de IA?

continua após a publicidade

Durante a aula, Pinker intrigou a plateia com uma pergunta: “os sistemas de IA podem realmente fazer o que o terapeuta faz?”

Novamente, ele destacou que essa não é uma ideia nova. Um dos primeiros chatbots da história, o ELIZA, criado por Joseph Weizenbaum, no Massachusetts Institute of Technology (MIT), nos anos 1960, quis simular o diálogo entre paciente e terapeuta.

Segundo ele, era um chatbot com regras “muito simples” de substituição de palavras. “A pessoa digitava no algoritmo. O algoritmo apenas procurava algumas palavras. Se você digitasse algo com a palavra mãe, ele respondia: ‘me conte mais sobre sua mãe’”.

continua após a publicidade
Psicólogo canadense explora usa da IA na saúde mental Foto: Leandro Martins/Brain Congress

“Segundo Weizenbaum, as pessoas ficaram ‘viciadas’ nisso. Elas realmente achavam que ajudava, embora fosse incrivelmente estúpido. Um analisador de padrões muito mais sofisticado poderia compensar a escassez de psicoterapeutas humanos? Esse é um grande problema em todo o mundo.”

“Não acho que devemos descartar essa possibilidade, especialmente para condições em que a terapia cognitivo-comportamental quase é um algoritmo. Ou seja, há um protocolo unificado para o tratamento de trauma, de fobia social, de agorafobia, até mesmo para tratamentos de depressão. Não acho que devemos descartar a possibilidade de que possa haver terapeutas de IA que seriam melhores do que nada.”

continua após a publicidade

*O repórter viajou a convite do Congresso Brain 2024: Cérebro, Comportamento e Emoções

ENVIADO ESPECIAL AO RIO DE JANEIRO* - As tentativas de utilizar conceitos de inteligência artificial dentro do campo da saúde mental datam dos anos 1950, de acordo com o célebre psicólogo e linguista canadense Steven Pinker, autor do best-seller Enlightenment Now: The Case for Reason, Science, Humanism, and Progress, considerado mais de uma vez uma das 100 pessoas mais influentes do mundo para a revista Times. Para ele, a tecnologia pode ser grande aliada e terapeutas de IA podem ser “melhor do que nada”. No entanto, Pinker destaca que os modelos de linguagem de grande escala (LLM, em inglês), popularizados pelo ChatGPT, ainda não são a resposta.

“O problema com os grandes modelos de linguagem, que hoje em dia todos apontam como inteligência artificial, é que realmente não há muita inteligência ali”, disse ele na sexta-feira, 28, durante coletiva de imprensa no Congresso Brain 2024: Cérebro, Comportamento e Emoções, no Rio de Janeiro. Ele foi a atração principal do terceiro dia do evento, que ocorreu logo após o encontro com jornalistas, do qual o Estadão participou.

Célebre psicólogo e linguista canadense Steven Pinker no Brain Congress, no Rio de Janeiro Foto: Leandro Martins/Brain Congress

Ele lembrou o trabalho do psicólogo americano Paul Meehl, que, em 1954, apontou que fórmulas estatísticas poderiam ser mais precisas que os clínicos em situações como prever comportamentos em saúde mental. “Nos anos 1950, não havia inteligência artificial, mas havia equações de regressão, e o que ele descobriu foi uma ‘bomba’”.

“Era uma fórmula estatística simples, com algumas variáveis como: o paciente já esteve deprimido antes? Por quanto tempo? Qual era a idade dele? Aí, ele comparou a previsão dela com a de psiquiatras para coisas como ‘será que o paciente será diagnosticado com um distúrbio específico nos próximos cinco anos?’ ou ‘será admitido em um hospital psiquiátrico?’. A fórmula teve um desempenho melhor do que todos os psiquiatras.”

Na visão dele, isso significa que a inteligência artificial pode sim ser uma boa aliada dos profissionais da saúde mental. “Não acho que haja uma diferença qualitativa entre um psiquiatra indo ao DSM-V (Manual Diagnóstico e Estatístico de Transtornos Mentais) ou indo a um algoritmo de computador. O DSM-5 é um monte de sintomas. É quase como um algoritmo. Acho (inclusive) que a teoria do algoritmo de inteligência artificial poderia ser mais útil do que manuais”.

“Isso não significa que não há psiquiatra ou nenhum ser humano”, destaca. “Poderia ser uma ferramenta muito útil, porque a literatura psiquiátrica, de psicologia clínica, de psicopatologia, é enorme. Nenhum terapeuta humano pode conhecer toda a literatura. Isso é o tipo de coisa que os computadores podem ser melhores.”

Porém, ele destaca que, nessa tarefa, tecnologias como o Chat GPT não são aplicáveis. “Ele não tem expertise em distúrbios psiquiátricos em si”.

“Ou seja, não há conhecimento de fatos, de pessoas, não há teorias. Ele apenas pega todo o texto da World Wide Web, comprime, encontra padrões e tenta duplicar os padrões que já foram criados por humanos nas respostas às perguntas.”

“A inteligência artificial clássica, que é mais algorítmica, passo a passo, pode ser depurada e questionada. Você pode ver por que ela respondeu o que respondeu. Ela se baseou em alguma referência ruim? Você não pode fazer isso com grandes modelos de linguagem. E isso, acho, é uma grande falha. Não significa que não seja solucionável, mas é uma limitação atual.”

Terapeuta de IA?

Durante a aula, Pinker intrigou a plateia com uma pergunta: “os sistemas de IA podem realmente fazer o que o terapeuta faz?”

Novamente, ele destacou que essa não é uma ideia nova. Um dos primeiros chatbots da história, o ELIZA, criado por Joseph Weizenbaum, no Massachusetts Institute of Technology (MIT), nos anos 1960, quis simular o diálogo entre paciente e terapeuta.

Segundo ele, era um chatbot com regras “muito simples” de substituição de palavras. “A pessoa digitava no algoritmo. O algoritmo apenas procurava algumas palavras. Se você digitasse algo com a palavra mãe, ele respondia: ‘me conte mais sobre sua mãe’”.

Psicólogo canadense explora usa da IA na saúde mental Foto: Leandro Martins/Brain Congress

“Segundo Weizenbaum, as pessoas ficaram ‘viciadas’ nisso. Elas realmente achavam que ajudava, embora fosse incrivelmente estúpido. Um analisador de padrões muito mais sofisticado poderia compensar a escassez de psicoterapeutas humanos? Esse é um grande problema em todo o mundo.”

“Não acho que devemos descartar essa possibilidade, especialmente para condições em que a terapia cognitivo-comportamental quase é um algoritmo. Ou seja, há um protocolo unificado para o tratamento de trauma, de fobia social, de agorafobia, até mesmo para tratamentos de depressão. Não acho que devemos descartar a possibilidade de que possa haver terapeutas de IA que seriam melhores do que nada.”

*O repórter viajou a convite do Congresso Brain 2024: Cérebro, Comportamento e Emoções

ENVIADO ESPECIAL AO RIO DE JANEIRO* - As tentativas de utilizar conceitos de inteligência artificial dentro do campo da saúde mental datam dos anos 1950, de acordo com o célebre psicólogo e linguista canadense Steven Pinker, autor do best-seller Enlightenment Now: The Case for Reason, Science, Humanism, and Progress, considerado mais de uma vez uma das 100 pessoas mais influentes do mundo para a revista Times. Para ele, a tecnologia pode ser grande aliada e terapeutas de IA podem ser “melhor do que nada”. No entanto, Pinker destaca que os modelos de linguagem de grande escala (LLM, em inglês), popularizados pelo ChatGPT, ainda não são a resposta.

“O problema com os grandes modelos de linguagem, que hoje em dia todos apontam como inteligência artificial, é que realmente não há muita inteligência ali”, disse ele na sexta-feira, 28, durante coletiva de imprensa no Congresso Brain 2024: Cérebro, Comportamento e Emoções, no Rio de Janeiro. Ele foi a atração principal do terceiro dia do evento, que ocorreu logo após o encontro com jornalistas, do qual o Estadão participou.

Célebre psicólogo e linguista canadense Steven Pinker no Brain Congress, no Rio de Janeiro Foto: Leandro Martins/Brain Congress

Ele lembrou o trabalho do psicólogo americano Paul Meehl, que, em 1954, apontou que fórmulas estatísticas poderiam ser mais precisas que os clínicos em situações como prever comportamentos em saúde mental. “Nos anos 1950, não havia inteligência artificial, mas havia equações de regressão, e o que ele descobriu foi uma ‘bomba’”.

“Era uma fórmula estatística simples, com algumas variáveis como: o paciente já esteve deprimido antes? Por quanto tempo? Qual era a idade dele? Aí, ele comparou a previsão dela com a de psiquiatras para coisas como ‘será que o paciente será diagnosticado com um distúrbio específico nos próximos cinco anos?’ ou ‘será admitido em um hospital psiquiátrico?’. A fórmula teve um desempenho melhor do que todos os psiquiatras.”

Na visão dele, isso significa que a inteligência artificial pode sim ser uma boa aliada dos profissionais da saúde mental. “Não acho que haja uma diferença qualitativa entre um psiquiatra indo ao DSM-V (Manual Diagnóstico e Estatístico de Transtornos Mentais) ou indo a um algoritmo de computador. O DSM-5 é um monte de sintomas. É quase como um algoritmo. Acho (inclusive) que a teoria do algoritmo de inteligência artificial poderia ser mais útil do que manuais”.

“Isso não significa que não há psiquiatra ou nenhum ser humano”, destaca. “Poderia ser uma ferramenta muito útil, porque a literatura psiquiátrica, de psicologia clínica, de psicopatologia, é enorme. Nenhum terapeuta humano pode conhecer toda a literatura. Isso é o tipo de coisa que os computadores podem ser melhores.”

Porém, ele destaca que, nessa tarefa, tecnologias como o Chat GPT não são aplicáveis. “Ele não tem expertise em distúrbios psiquiátricos em si”.

“Ou seja, não há conhecimento de fatos, de pessoas, não há teorias. Ele apenas pega todo o texto da World Wide Web, comprime, encontra padrões e tenta duplicar os padrões que já foram criados por humanos nas respostas às perguntas.”

“A inteligência artificial clássica, que é mais algorítmica, passo a passo, pode ser depurada e questionada. Você pode ver por que ela respondeu o que respondeu. Ela se baseou em alguma referência ruim? Você não pode fazer isso com grandes modelos de linguagem. E isso, acho, é uma grande falha. Não significa que não seja solucionável, mas é uma limitação atual.”

Terapeuta de IA?

Durante a aula, Pinker intrigou a plateia com uma pergunta: “os sistemas de IA podem realmente fazer o que o terapeuta faz?”

Novamente, ele destacou que essa não é uma ideia nova. Um dos primeiros chatbots da história, o ELIZA, criado por Joseph Weizenbaum, no Massachusetts Institute of Technology (MIT), nos anos 1960, quis simular o diálogo entre paciente e terapeuta.

Segundo ele, era um chatbot com regras “muito simples” de substituição de palavras. “A pessoa digitava no algoritmo. O algoritmo apenas procurava algumas palavras. Se você digitasse algo com a palavra mãe, ele respondia: ‘me conte mais sobre sua mãe’”.

Psicólogo canadense explora usa da IA na saúde mental Foto: Leandro Martins/Brain Congress

“Segundo Weizenbaum, as pessoas ficaram ‘viciadas’ nisso. Elas realmente achavam que ajudava, embora fosse incrivelmente estúpido. Um analisador de padrões muito mais sofisticado poderia compensar a escassez de psicoterapeutas humanos? Esse é um grande problema em todo o mundo.”

“Não acho que devemos descartar essa possibilidade, especialmente para condições em que a terapia cognitivo-comportamental quase é um algoritmo. Ou seja, há um protocolo unificado para o tratamento de trauma, de fobia social, de agorafobia, até mesmo para tratamentos de depressão. Não acho que devemos descartar a possibilidade de que possa haver terapeutas de IA que seriam melhores do que nada.”

*O repórter viajou a convite do Congresso Brain 2024: Cérebro, Comportamento e Emoções

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.