Inteligência artificial: médicos estão usando chatbots de maneira inesperada


Apesar das desvantagens de recorrer à inteligência artificial na medicina, alguns médicos acham que o ChatGPT melhora sua capacidade de se comunicar de forma empática com os pacientes

Por Gina Kolata

THE NEW YORK TIMES - LIFE/STYLE - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, os médicos estavam usando o chatbot com inteligência artificial.

“Fiquei empolgado e surpreso, mas, para ser honesto, um pouco alarmado”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros grandes modelos de linguagem orientados por IA pudessem assumir tarefas mundanas que consomem horas do tempo dos médicos e contribuem para seu burnout, como escrever para seguros de saúde ou resumir anotações de pacientes.

continua após a publicidade
Cientistas à frente do ChatGPT temiam que médicos usassem o chatbot para fazer diagnósticos, mas a categoria está usando para conseguir se comunicar com pacientes. Foto: Daniel Zender/The New York Times

Eles temiam, porém, que a inteligência artificial também oferecesse um atalho bastante tentador para encontrar diagnósticos e informações médicas que podem ser incorretas ou mesmo inventadas, uma perspectiva assustadora em um campo como a medicina.

O mais surpreendente para Lee, porém, foi uma utilização que ele não havia previsto - os médicos estavam pedindo ao ChatGPT para ajudá-los a se comunicar com os pacientes de uma maneira mais compassiva.

continua após a publicidade

Em uma pesquisa, 85% dos pacientes relataram que a compaixão de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram ter ido a médicos que não foram compassivos. E um estudo das conversas dos médicos com as famílias de pacientes à beira da morte descobriu que muitos não eram empáticos.

É aí que os chatbots entram, pois os médicos estão usando-os para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou apenas para explicar com mais clareza as recomendações médicas.

Até Lee, da Microsoft, disse que isso era um pouco desconcertante.

continua após a publicidade

“Como paciente, eu pessoalmente me sentiria um pouco estranho com isso”, disse ele.

Sem medo de pedir ajuda

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas em Austin, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

continua após a publicidade

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar os tratamentos para o transtorno do uso de álcool. Como podemos envolver os pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se lhe pedisse para traduzir isso: Como os médicos podem ajudar melhor os pacientes que bebem muito álcool, mas não pararam depois de conversar com um terapeuta?

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes com compaixão.

continua após a publicidade

“Uma semana depois, ninguém tinha feito isso”, disse ele. Tudo o que ele tinha era um texto elaborado por seu coordenador de pesquisa e um assistente social da equipe, e “aquele não era um roteiro verdadeiro”, disse ele.

Então Pignone tentou o ChatGPT, que respondeu instantaneamente com todos os argumentos que os médicos queriam.

Assistentes sociais, no entanto, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo a um nível de leitura da quinta série, começou com uma introdução tranquilizadora:

continua após a publicidade

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm este problema, mas existem medicamentos que podem ajudá-lo a sentir-se melhor e a ter uma vida mais saudável e feliz.

Isso foi seguido por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro este mês.

O Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado.

“Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que mesmo as palavras que pensamos serem facilmente compreensíveis, na verdade não o são.”

Alguns especialistas questionam se é necessário recorrer a um programa de IA por palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica na Harvard Medical School. “Se eles mostram que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito. "

Mas a empatia pode ser enganosa. Pode ser fácil, diz ele, confundir boas maneiras à beira do leito com bons conselhos médicos.

'Um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes.' Foto: Daniel Zender/The New York Times

Dificuldade em ser empático

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas da Faculdade de Medicina da Universidade de Pittsburgh. “A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse White. Como resultado, disse ele, eles podem deixar de prestar atenção ao “lado emocional que os pacientes e familiares estão vivenciando”.

Em outras ocasiões, os médicos estão muito cientes da necessidade de empatia, mas pode ser difícil encontrar as palavras certas.

O Dr. Gregory Moore, que até recentemente era um executivo sênior de saúde e ciências da vida na Microsoft, queria ajudar uma amiga que tinha câncer avançado. Sua situação era terrível e ela precisava de conselhos sobre seu tratamento e seu futuro. Ele decidiu fazer as perguntas dela ao ChatGPT.

O resultado “me surpreendeu”, disse Moore.

Em respostas longas e compassivas às solicitações de Moore, o programa deu a ele as palavras para explicar à amiga a falta de tratamentos eficazes:

Sei que é muita informação para processar e que pode se sentir desiludida ou frustrada pela falta de opções... Gostaria que houvesse mais e melhores tratamentos... e espero que no futuro venham a existir.

Moore tornou-se um evangelista, contando a seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a muitos colegas.

“Talvez seja porque estamos apegados ao que vemos como uma parte intensamente humana de nossa profissão”, disse Moore.

Ou, como disse o Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina de Yale, um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes”.

Ainda assim, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quão à vontade eles se sentiriam em delegar tarefas - como cultivar uma abordagem empática ou ler gráficos - é eles mesmos experimentarem.

“Você seria louco de não tentar e aprender mais sobre o que ele pode fazer”, disse Krumholz. /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

THE NEW YORK TIMES - LIFE/STYLE - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, os médicos estavam usando o chatbot com inteligência artificial.

“Fiquei empolgado e surpreso, mas, para ser honesto, um pouco alarmado”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros grandes modelos de linguagem orientados por IA pudessem assumir tarefas mundanas que consomem horas do tempo dos médicos e contribuem para seu burnout, como escrever para seguros de saúde ou resumir anotações de pacientes.

Cientistas à frente do ChatGPT temiam que médicos usassem o chatbot para fazer diagnósticos, mas a categoria está usando para conseguir se comunicar com pacientes. Foto: Daniel Zender/The New York Times

Eles temiam, porém, que a inteligência artificial também oferecesse um atalho bastante tentador para encontrar diagnósticos e informações médicas que podem ser incorretas ou mesmo inventadas, uma perspectiva assustadora em um campo como a medicina.

O mais surpreendente para Lee, porém, foi uma utilização que ele não havia previsto - os médicos estavam pedindo ao ChatGPT para ajudá-los a se comunicar com os pacientes de uma maneira mais compassiva.

Em uma pesquisa, 85% dos pacientes relataram que a compaixão de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram ter ido a médicos que não foram compassivos. E um estudo das conversas dos médicos com as famílias de pacientes à beira da morte descobriu que muitos não eram empáticos.

É aí que os chatbots entram, pois os médicos estão usando-os para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou apenas para explicar com mais clareza as recomendações médicas.

Até Lee, da Microsoft, disse que isso era um pouco desconcertante.

“Como paciente, eu pessoalmente me sentiria um pouco estranho com isso”, disse ele.

Sem medo de pedir ajuda

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas em Austin, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar os tratamentos para o transtorno do uso de álcool. Como podemos envolver os pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se lhe pedisse para traduzir isso: Como os médicos podem ajudar melhor os pacientes que bebem muito álcool, mas não pararam depois de conversar com um terapeuta?

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes com compaixão.

“Uma semana depois, ninguém tinha feito isso”, disse ele. Tudo o que ele tinha era um texto elaborado por seu coordenador de pesquisa e um assistente social da equipe, e “aquele não era um roteiro verdadeiro”, disse ele.

Então Pignone tentou o ChatGPT, que respondeu instantaneamente com todos os argumentos que os médicos queriam.

Assistentes sociais, no entanto, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo a um nível de leitura da quinta série, começou com uma introdução tranquilizadora:

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm este problema, mas existem medicamentos que podem ajudá-lo a sentir-se melhor e a ter uma vida mais saudável e feliz.

Isso foi seguido por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro este mês.

O Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado.

“Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que mesmo as palavras que pensamos serem facilmente compreensíveis, na verdade não o são.”

Alguns especialistas questionam se é necessário recorrer a um programa de IA por palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica na Harvard Medical School. “Se eles mostram que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito. "

Mas a empatia pode ser enganosa. Pode ser fácil, diz ele, confundir boas maneiras à beira do leito com bons conselhos médicos.

'Um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes.' Foto: Daniel Zender/The New York Times

Dificuldade em ser empático

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas da Faculdade de Medicina da Universidade de Pittsburgh. “A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse White. Como resultado, disse ele, eles podem deixar de prestar atenção ao “lado emocional que os pacientes e familiares estão vivenciando”.

Em outras ocasiões, os médicos estão muito cientes da necessidade de empatia, mas pode ser difícil encontrar as palavras certas.

O Dr. Gregory Moore, que até recentemente era um executivo sênior de saúde e ciências da vida na Microsoft, queria ajudar uma amiga que tinha câncer avançado. Sua situação era terrível e ela precisava de conselhos sobre seu tratamento e seu futuro. Ele decidiu fazer as perguntas dela ao ChatGPT.

O resultado “me surpreendeu”, disse Moore.

Em respostas longas e compassivas às solicitações de Moore, o programa deu a ele as palavras para explicar à amiga a falta de tratamentos eficazes:

Sei que é muita informação para processar e que pode se sentir desiludida ou frustrada pela falta de opções... Gostaria que houvesse mais e melhores tratamentos... e espero que no futuro venham a existir.

Moore tornou-se um evangelista, contando a seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a muitos colegas.

“Talvez seja porque estamos apegados ao que vemos como uma parte intensamente humana de nossa profissão”, disse Moore.

Ou, como disse o Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina de Yale, um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes”.

Ainda assim, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quão à vontade eles se sentiriam em delegar tarefas - como cultivar uma abordagem empática ou ler gráficos - é eles mesmos experimentarem.

“Você seria louco de não tentar e aprender mais sobre o que ele pode fazer”, disse Krumholz. /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

THE NEW YORK TIMES - LIFE/STYLE - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, os médicos estavam usando o chatbot com inteligência artificial.

“Fiquei empolgado e surpreso, mas, para ser honesto, um pouco alarmado”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros grandes modelos de linguagem orientados por IA pudessem assumir tarefas mundanas que consomem horas do tempo dos médicos e contribuem para seu burnout, como escrever para seguros de saúde ou resumir anotações de pacientes.

Cientistas à frente do ChatGPT temiam que médicos usassem o chatbot para fazer diagnósticos, mas a categoria está usando para conseguir se comunicar com pacientes. Foto: Daniel Zender/The New York Times

Eles temiam, porém, que a inteligência artificial também oferecesse um atalho bastante tentador para encontrar diagnósticos e informações médicas que podem ser incorretas ou mesmo inventadas, uma perspectiva assustadora em um campo como a medicina.

O mais surpreendente para Lee, porém, foi uma utilização que ele não havia previsto - os médicos estavam pedindo ao ChatGPT para ajudá-los a se comunicar com os pacientes de uma maneira mais compassiva.

Em uma pesquisa, 85% dos pacientes relataram que a compaixão de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram ter ido a médicos que não foram compassivos. E um estudo das conversas dos médicos com as famílias de pacientes à beira da morte descobriu que muitos não eram empáticos.

É aí que os chatbots entram, pois os médicos estão usando-os para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou apenas para explicar com mais clareza as recomendações médicas.

Até Lee, da Microsoft, disse que isso era um pouco desconcertante.

“Como paciente, eu pessoalmente me sentiria um pouco estranho com isso”, disse ele.

Sem medo de pedir ajuda

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas em Austin, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar os tratamentos para o transtorno do uso de álcool. Como podemos envolver os pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se lhe pedisse para traduzir isso: Como os médicos podem ajudar melhor os pacientes que bebem muito álcool, mas não pararam depois de conversar com um terapeuta?

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes com compaixão.

“Uma semana depois, ninguém tinha feito isso”, disse ele. Tudo o que ele tinha era um texto elaborado por seu coordenador de pesquisa e um assistente social da equipe, e “aquele não era um roteiro verdadeiro”, disse ele.

Então Pignone tentou o ChatGPT, que respondeu instantaneamente com todos os argumentos que os médicos queriam.

Assistentes sociais, no entanto, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo a um nível de leitura da quinta série, começou com uma introdução tranquilizadora:

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm este problema, mas existem medicamentos que podem ajudá-lo a sentir-se melhor e a ter uma vida mais saudável e feliz.

Isso foi seguido por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro este mês.

O Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado.

“Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que mesmo as palavras que pensamos serem facilmente compreensíveis, na verdade não o são.”

Alguns especialistas questionam se é necessário recorrer a um programa de IA por palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica na Harvard Medical School. “Se eles mostram que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito. "

Mas a empatia pode ser enganosa. Pode ser fácil, diz ele, confundir boas maneiras à beira do leito com bons conselhos médicos.

'Um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes.' Foto: Daniel Zender/The New York Times

Dificuldade em ser empático

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas da Faculdade de Medicina da Universidade de Pittsburgh. “A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse White. Como resultado, disse ele, eles podem deixar de prestar atenção ao “lado emocional que os pacientes e familiares estão vivenciando”.

Em outras ocasiões, os médicos estão muito cientes da necessidade de empatia, mas pode ser difícil encontrar as palavras certas.

O Dr. Gregory Moore, que até recentemente era um executivo sênior de saúde e ciências da vida na Microsoft, queria ajudar uma amiga que tinha câncer avançado. Sua situação era terrível e ela precisava de conselhos sobre seu tratamento e seu futuro. Ele decidiu fazer as perguntas dela ao ChatGPT.

O resultado “me surpreendeu”, disse Moore.

Em respostas longas e compassivas às solicitações de Moore, o programa deu a ele as palavras para explicar à amiga a falta de tratamentos eficazes:

Sei que é muita informação para processar e que pode se sentir desiludida ou frustrada pela falta de opções... Gostaria que houvesse mais e melhores tratamentos... e espero que no futuro venham a existir.

Moore tornou-se um evangelista, contando a seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a muitos colegas.

“Talvez seja porque estamos apegados ao que vemos como uma parte intensamente humana de nossa profissão”, disse Moore.

Ou, como disse o Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina de Yale, um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes”.

Ainda assim, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quão à vontade eles se sentiriam em delegar tarefas - como cultivar uma abordagem empática ou ler gráficos - é eles mesmos experimentarem.

“Você seria louco de não tentar e aprender mais sobre o que ele pode fazer”, disse Krumholz. /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

THE NEW YORK TIMES - LIFE/STYLE - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, os médicos estavam usando o chatbot com inteligência artificial.

“Fiquei empolgado e surpreso, mas, para ser honesto, um pouco alarmado”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros grandes modelos de linguagem orientados por IA pudessem assumir tarefas mundanas que consomem horas do tempo dos médicos e contribuem para seu burnout, como escrever para seguros de saúde ou resumir anotações de pacientes.

Cientistas à frente do ChatGPT temiam que médicos usassem o chatbot para fazer diagnósticos, mas a categoria está usando para conseguir se comunicar com pacientes. Foto: Daniel Zender/The New York Times

Eles temiam, porém, que a inteligência artificial também oferecesse um atalho bastante tentador para encontrar diagnósticos e informações médicas que podem ser incorretas ou mesmo inventadas, uma perspectiva assustadora em um campo como a medicina.

O mais surpreendente para Lee, porém, foi uma utilização que ele não havia previsto - os médicos estavam pedindo ao ChatGPT para ajudá-los a se comunicar com os pacientes de uma maneira mais compassiva.

Em uma pesquisa, 85% dos pacientes relataram que a compaixão de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram ter ido a médicos que não foram compassivos. E um estudo das conversas dos médicos com as famílias de pacientes à beira da morte descobriu que muitos não eram empáticos.

É aí que os chatbots entram, pois os médicos estão usando-os para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou apenas para explicar com mais clareza as recomendações médicas.

Até Lee, da Microsoft, disse que isso era um pouco desconcertante.

“Como paciente, eu pessoalmente me sentiria um pouco estranho com isso”, disse ele.

Sem medo de pedir ajuda

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas em Austin, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar os tratamentos para o transtorno do uso de álcool. Como podemos envolver os pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se lhe pedisse para traduzir isso: Como os médicos podem ajudar melhor os pacientes que bebem muito álcool, mas não pararam depois de conversar com um terapeuta?

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes com compaixão.

“Uma semana depois, ninguém tinha feito isso”, disse ele. Tudo o que ele tinha era um texto elaborado por seu coordenador de pesquisa e um assistente social da equipe, e “aquele não era um roteiro verdadeiro”, disse ele.

Então Pignone tentou o ChatGPT, que respondeu instantaneamente com todos os argumentos que os médicos queriam.

Assistentes sociais, no entanto, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo a um nível de leitura da quinta série, começou com uma introdução tranquilizadora:

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm este problema, mas existem medicamentos que podem ajudá-lo a sentir-se melhor e a ter uma vida mais saudável e feliz.

Isso foi seguido por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro este mês.

O Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado.

“Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que mesmo as palavras que pensamos serem facilmente compreensíveis, na verdade não o são.”

Alguns especialistas questionam se é necessário recorrer a um programa de IA por palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica na Harvard Medical School. “Se eles mostram que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito. "

Mas a empatia pode ser enganosa. Pode ser fácil, diz ele, confundir boas maneiras à beira do leito com bons conselhos médicos.

'Um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes.' Foto: Daniel Zender/The New York Times

Dificuldade em ser empático

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas da Faculdade de Medicina da Universidade de Pittsburgh. “A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse White. Como resultado, disse ele, eles podem deixar de prestar atenção ao “lado emocional que os pacientes e familiares estão vivenciando”.

Em outras ocasiões, os médicos estão muito cientes da necessidade de empatia, mas pode ser difícil encontrar as palavras certas.

O Dr. Gregory Moore, que até recentemente era um executivo sênior de saúde e ciências da vida na Microsoft, queria ajudar uma amiga que tinha câncer avançado. Sua situação era terrível e ela precisava de conselhos sobre seu tratamento e seu futuro. Ele decidiu fazer as perguntas dela ao ChatGPT.

O resultado “me surpreendeu”, disse Moore.

Em respostas longas e compassivas às solicitações de Moore, o programa deu a ele as palavras para explicar à amiga a falta de tratamentos eficazes:

Sei que é muita informação para processar e que pode se sentir desiludida ou frustrada pela falta de opções... Gostaria que houvesse mais e melhores tratamentos... e espero que no futuro venham a existir.

Moore tornou-se um evangelista, contando a seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a muitos colegas.

“Talvez seja porque estamos apegados ao que vemos como uma parte intensamente humana de nossa profissão”, disse Moore.

Ou, como disse o Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina de Yale, um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes”.

Ainda assim, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quão à vontade eles se sentiriam em delegar tarefas - como cultivar uma abordagem empática ou ler gráficos - é eles mesmos experimentarem.

“Você seria louco de não tentar e aprender mais sobre o que ele pode fazer”, disse Krumholz. /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.