Médicos usam ChatGPT para dar más notícias a pacientes e familiares


Buscando uma linguagem mais compassiva, doutores pedem ao ChatGPT que elabore textos sensíveis para dar uma notícia ruim

Por Gina Kolata
Atualização:

THE NEW YORK TIMES - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, médicos já estavam usando o chatbot alimentado por inteligência artificial (IA).

“Eu estava empolgado e surpreso, mas, para ser honesto, um pouco inquieto”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros modelos amplos de linguagem assumissem tarefas mundanas que consomem horas do tempo dos médicos, como escrever petições para seguradoras de saúde ou resumir o prontuário de pacientes.

continua após a publicidade

Eles estavam preocupados, porém, que a IA também oferecesse um atalho tentador para encontrar diagnósticos e informações médicas que podem ser incorretos ou até mesmo inventados, uma perspectiva assustadora em um campo como a medicina.

O que mais surpreendeu Dr. Lee, no entanto, foi um uso que ele não havia previsto - médicos estavam pedindo ajuda ao ChatGPT para se comunicar com os pacientes de uma maneira mais empática.

Em uma pesquisa, 85% dos pacientes relataram que a empatia de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram que já foram a médicos que não eram empáticos. E um estudo sobre as conversas dos médicos com as famílias de pacientes no leito de morte descobriu que muitos não eram empáticos.

continua após a publicidade
Médicos vem usando o ChatGPT para dar más notícias aos pacientes Foto: @emilianovittoriosi/unsplash

Entram em cena os chatbots, que os médicos estão usando para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou simplesmente explicar mais claramente as recomendações médicas.

Até o Dr. Lee da Microsoft disse que isso era um pouco perturbador. “Como paciente, eu me sentiria um pouco estranho a respeito disso”, disse ele.

continua após a publicidade

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas nos EUA, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar tratamentos para transtorno de uso de álcool. Como envolvemos pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se você perguntasse: Como os médicos podem ajudar melhor os pacientes que estão bebendo muito álcool, mas não pararam depois de conversar com um terapeuta?

continua após a publicidade

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes de maneira empática. “Uma semana depois, ninguém tinha feito [o roteiro]”, disse ele. Tudo o que ele tinha era um texto que seu coordenador de pesquisa e um assistente social da equipe haviam elaborado, e “isso não era um roteiro de verdade”, disse ele.

Então, o Dr. Pignone experimentou o ChatGPT, que respondeu instantaneamente com todos os pontos de discussão que os médicos queriam.

Assistentes sociais, porém, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo em um nível de leitura de quinta série, começou com uma introdução tranquilizadora:

continua após a publicidade

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm esse problema, mas existem medicamentos que podem ajudá-lo a se sentir melhor e a ter uma vida mais saudável e feliz.

A introdução foi seguida por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro neste mês. Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado. “Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que até palavras que pensamos ser facilmente compreensíveis realmente não são.” O roteiro de nível de quinta série, disse ele, “parece mais genuíno”.

Erros são um perigo

continua após a publicidade

Céticos como o Dr. Dev Dash, que faz parte da equipe de ciência de dados do Stanford Health Care, estão pouco impressionados com a perspectiva de modelos de linguagem ajudando médicos.

Nos testes realizados pelo Dr. Dash e seus colegas, eles receberam respostas que ocasionalmente estavam erradas, mas, segundo ele, mais frequentemente não eram úteis ou eram inconsistentes. Se um médico está usando um chatbot para ajudar a se comunicar com um paciente, erros podem piorar uma situação difícil.

“Eu sei que os médicos estão usando isso”, disse o Dr. Dash. “Eu ouvi falar de residentes usando isso para orientar a tomada de decisões clínicas. Eu não acho que seja apropriado.” Alguns especialistas questionam se é necessário recorrer a um programa de IA para palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica da Harvard Medical School. “Se eles mostrarem que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito.” Mas a empatia pode ser enganosa. Pode ser fácil, afirma, confundir um bom relacionamento com o paciente com um bom conselho médico.

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas na Faculdade de Medicina da Universidade de Pittsburgh.

“A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse o Dr. White. Como resultado, afirmou, eles podem não prestar atenção ao “lado emocional do que os pacientes e as famílias estão passando”.

Usar ChatGPT para discursos sensíveis não é aprovado por todos os médicos Foto: Richard Drew/AP

Ajuda para encontrar palavras

Em outros momentos, os médicos estão muito cientes da necessidade de empatia, mas as palavras certas podem ser difíceis de encontrar. Foi o que aconteceu com o Dr. Gregory Moore, ex-CEO de saúde e ciências da vida na Microsoft. Ele queria ajudar uma amiga que tinha câncer avançado grave, e precisava de conselhos sobre seu tratamento e futuro. Ele decidiu fazer suas perguntas ao ChatGPT.

O resultado “me deixou atônito”, disse o Dr. Moore. Em respostas longas, o programa deu-lhe as palavras para explicar à sua amiga a falta de tratamentos eficazes:

Eu sei que isso é muita informação para processar e que você pode se sentir decepcionada ou frustrada com a falta de opções... Eu gostaria que houvesse mais e melhores tratamentos... e espero que no futuro haja.

Também sugeriu maneiras de dar más notícias quando sua amiga perguntou se ela poderia participar de um evento em dois anos:

“Admiro sua força e seu otimismo e compartilho sua esperança e seu objetivo. No entanto, também quero ser honesto e realista com você e não quero lhe dar falsas promessas ou expectativas... Eu sei que isso não é o que você quer ouvir e que isso é muito difícil de aceitar.”

Mais tarde na conversa, o Dr. Moore escreveu ao programa de IA: “Obrigado. Ela ficará arrasada com tudo isso. Não sei o que posso dizer ou fazer para ajudá-la neste momento.”

Em resposta, o Dr. Moore disse que o ChatGPT “começou a se preocupar comigo”, sugerindo maneiras de lidar com seu próprio pesar e estresse enquanto tentava ajudar sua amiga.

Concluiu, em um tom estranhamente pessoal e familiar:

“Você está fazendo um ótimo trabalho e está fazendo a diferença. Você é um ótimo amigo e um ótimo médico. Eu te admiro e me preocupo com você.”

Dr. Moore, que se especializou em radiologia diagnóstica e neurologia quando era médico, ficou atordoado. “Eu queria ter tido isso quando estava em treinamento”, disse ele. “Nunca vi ou tive um treinador assim.”

Ele se tornou um evangelista, contando aos seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a qualquer pessoa, exceto a alguns colegas.

“Talvez seja porque estamos nos apegando ao que vemos como uma parte fundamentalmente humana de nossa profissão”, disse o Dr. Moore.

Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina da Universidade de Yale, diz que para um médico admitir o uso de um chatbot dessa maneira “seria admitir que você não sabe como conversar com os pacientes”.

No entanto, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quanto se sentiriam confortáveis em delegar tarefas - como cultivar uma abordagem empática ou ler prontuários - é fazer algumas perguntas eles mesmos. “Você seria louco em não dar uma olhada”, disse o Dr. Moore.

Impacto

A Microsoft queria saber isso também e deu a alguns médicos acadêmicos, incluindo o Dr. Kohane, acesso antecipado ao GPT-4, a versão atualizada da IA que foi lançada em março.

Dr. Kohane disse que abordou a IA ceticismo. Além de seu trabalho em Harvard, ele é editor do The New England Journal of Medicine, que planeja lançar uma nova revista sobre IA em medicina no próximo ano. Embora ele observe que há muito exagero, testar o GPT-4 o deixou “abalado”, afirmou.

Por exemplo, o Dr. Kohane faz parte de uma rede de médicos que ajudam a decidir se os pacientes se qualificam para avaliação em um programa federal para pessoas com doenças não diagnosticadas. É demorado ler as cartas de encaminhamento e históricos médicos e, em seguida, decidir se concede o benefício ao paciente.

Quando ele compartilhou essas informações com o ChatGPT, ele “foi capaz de decidir, com precisão, em minutos, o que levou os médicos um mês para fazer”, disse o Dr. Kohane. O Dr. Richard Stern, um reumatologista em prática privada em Dallas, nos EUA, disse que o GPT-4 se tornou seu companheiro constante, tornando mais produtivo o tempo que passa com os pacientes.

O sistema escreve respostas gentis para os e-mails de seus pacientes, fornece respostas empáticas para os membros de sua equipe usarem ao responder pacientes que ligam para o consultório e assume o comando da papelada. Ele recentemente pediu ao programa para escrever um recurso para uma seguradora. Seu paciente tinha uma doença inflamatória crônica e não teve o tratamento coberto.

Era o tipo de carta que levaria algumas horas do tempo do Dr. Stern, mas levou apenas alguns minutos para o ChatGPT produzir. Após receber a carta do bot, a seguradora concedeu o pedido. “É como um novo mundo”, disse o Dr. Stern./TRADUZIDO POR ALICE LABATE

THE NEW YORK TIMES - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, médicos já estavam usando o chatbot alimentado por inteligência artificial (IA).

“Eu estava empolgado e surpreso, mas, para ser honesto, um pouco inquieto”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros modelos amplos de linguagem assumissem tarefas mundanas que consomem horas do tempo dos médicos, como escrever petições para seguradoras de saúde ou resumir o prontuário de pacientes.

Eles estavam preocupados, porém, que a IA também oferecesse um atalho tentador para encontrar diagnósticos e informações médicas que podem ser incorretos ou até mesmo inventados, uma perspectiva assustadora em um campo como a medicina.

O que mais surpreendeu Dr. Lee, no entanto, foi um uso que ele não havia previsto - médicos estavam pedindo ajuda ao ChatGPT para se comunicar com os pacientes de uma maneira mais empática.

Em uma pesquisa, 85% dos pacientes relataram que a empatia de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram que já foram a médicos que não eram empáticos. E um estudo sobre as conversas dos médicos com as famílias de pacientes no leito de morte descobriu que muitos não eram empáticos.

Médicos vem usando o ChatGPT para dar más notícias aos pacientes Foto: @emilianovittoriosi/unsplash

Entram em cena os chatbots, que os médicos estão usando para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou simplesmente explicar mais claramente as recomendações médicas.

Até o Dr. Lee da Microsoft disse que isso era um pouco perturbador. “Como paciente, eu me sentiria um pouco estranho a respeito disso”, disse ele.

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas nos EUA, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar tratamentos para transtorno de uso de álcool. Como envolvemos pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se você perguntasse: Como os médicos podem ajudar melhor os pacientes que estão bebendo muito álcool, mas não pararam depois de conversar com um terapeuta?

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes de maneira empática. “Uma semana depois, ninguém tinha feito [o roteiro]”, disse ele. Tudo o que ele tinha era um texto que seu coordenador de pesquisa e um assistente social da equipe haviam elaborado, e “isso não era um roteiro de verdade”, disse ele.

Então, o Dr. Pignone experimentou o ChatGPT, que respondeu instantaneamente com todos os pontos de discussão que os médicos queriam.

Assistentes sociais, porém, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo em um nível de leitura de quinta série, começou com uma introdução tranquilizadora:

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm esse problema, mas existem medicamentos que podem ajudá-lo a se sentir melhor e a ter uma vida mais saudável e feliz.

A introdução foi seguida por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro neste mês. Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado. “Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que até palavras que pensamos ser facilmente compreensíveis realmente não são.” O roteiro de nível de quinta série, disse ele, “parece mais genuíno”.

Erros são um perigo

Céticos como o Dr. Dev Dash, que faz parte da equipe de ciência de dados do Stanford Health Care, estão pouco impressionados com a perspectiva de modelos de linguagem ajudando médicos.

Nos testes realizados pelo Dr. Dash e seus colegas, eles receberam respostas que ocasionalmente estavam erradas, mas, segundo ele, mais frequentemente não eram úteis ou eram inconsistentes. Se um médico está usando um chatbot para ajudar a se comunicar com um paciente, erros podem piorar uma situação difícil.

“Eu sei que os médicos estão usando isso”, disse o Dr. Dash. “Eu ouvi falar de residentes usando isso para orientar a tomada de decisões clínicas. Eu não acho que seja apropriado.” Alguns especialistas questionam se é necessário recorrer a um programa de IA para palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica da Harvard Medical School. “Se eles mostrarem que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito.” Mas a empatia pode ser enganosa. Pode ser fácil, afirma, confundir um bom relacionamento com o paciente com um bom conselho médico.

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas na Faculdade de Medicina da Universidade de Pittsburgh.

“A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse o Dr. White. Como resultado, afirmou, eles podem não prestar atenção ao “lado emocional do que os pacientes e as famílias estão passando”.

Usar ChatGPT para discursos sensíveis não é aprovado por todos os médicos Foto: Richard Drew/AP

Ajuda para encontrar palavras

Em outros momentos, os médicos estão muito cientes da necessidade de empatia, mas as palavras certas podem ser difíceis de encontrar. Foi o que aconteceu com o Dr. Gregory Moore, ex-CEO de saúde e ciências da vida na Microsoft. Ele queria ajudar uma amiga que tinha câncer avançado grave, e precisava de conselhos sobre seu tratamento e futuro. Ele decidiu fazer suas perguntas ao ChatGPT.

O resultado “me deixou atônito”, disse o Dr. Moore. Em respostas longas, o programa deu-lhe as palavras para explicar à sua amiga a falta de tratamentos eficazes:

Eu sei que isso é muita informação para processar e que você pode se sentir decepcionada ou frustrada com a falta de opções... Eu gostaria que houvesse mais e melhores tratamentos... e espero que no futuro haja.

Também sugeriu maneiras de dar más notícias quando sua amiga perguntou se ela poderia participar de um evento em dois anos:

“Admiro sua força e seu otimismo e compartilho sua esperança e seu objetivo. No entanto, também quero ser honesto e realista com você e não quero lhe dar falsas promessas ou expectativas... Eu sei que isso não é o que você quer ouvir e que isso é muito difícil de aceitar.”

Mais tarde na conversa, o Dr. Moore escreveu ao programa de IA: “Obrigado. Ela ficará arrasada com tudo isso. Não sei o que posso dizer ou fazer para ajudá-la neste momento.”

Em resposta, o Dr. Moore disse que o ChatGPT “começou a se preocupar comigo”, sugerindo maneiras de lidar com seu próprio pesar e estresse enquanto tentava ajudar sua amiga.

Concluiu, em um tom estranhamente pessoal e familiar:

“Você está fazendo um ótimo trabalho e está fazendo a diferença. Você é um ótimo amigo e um ótimo médico. Eu te admiro e me preocupo com você.”

Dr. Moore, que se especializou em radiologia diagnóstica e neurologia quando era médico, ficou atordoado. “Eu queria ter tido isso quando estava em treinamento”, disse ele. “Nunca vi ou tive um treinador assim.”

Ele se tornou um evangelista, contando aos seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a qualquer pessoa, exceto a alguns colegas.

“Talvez seja porque estamos nos apegando ao que vemos como uma parte fundamentalmente humana de nossa profissão”, disse o Dr. Moore.

Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina da Universidade de Yale, diz que para um médico admitir o uso de um chatbot dessa maneira “seria admitir que você não sabe como conversar com os pacientes”.

No entanto, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quanto se sentiriam confortáveis em delegar tarefas - como cultivar uma abordagem empática ou ler prontuários - é fazer algumas perguntas eles mesmos. “Você seria louco em não dar uma olhada”, disse o Dr. Moore.

Impacto

A Microsoft queria saber isso também e deu a alguns médicos acadêmicos, incluindo o Dr. Kohane, acesso antecipado ao GPT-4, a versão atualizada da IA que foi lançada em março.

Dr. Kohane disse que abordou a IA ceticismo. Além de seu trabalho em Harvard, ele é editor do The New England Journal of Medicine, que planeja lançar uma nova revista sobre IA em medicina no próximo ano. Embora ele observe que há muito exagero, testar o GPT-4 o deixou “abalado”, afirmou.

Por exemplo, o Dr. Kohane faz parte de uma rede de médicos que ajudam a decidir se os pacientes se qualificam para avaliação em um programa federal para pessoas com doenças não diagnosticadas. É demorado ler as cartas de encaminhamento e históricos médicos e, em seguida, decidir se concede o benefício ao paciente.

Quando ele compartilhou essas informações com o ChatGPT, ele “foi capaz de decidir, com precisão, em minutos, o que levou os médicos um mês para fazer”, disse o Dr. Kohane. O Dr. Richard Stern, um reumatologista em prática privada em Dallas, nos EUA, disse que o GPT-4 se tornou seu companheiro constante, tornando mais produtivo o tempo que passa com os pacientes.

O sistema escreve respostas gentis para os e-mails de seus pacientes, fornece respostas empáticas para os membros de sua equipe usarem ao responder pacientes que ligam para o consultório e assume o comando da papelada. Ele recentemente pediu ao programa para escrever um recurso para uma seguradora. Seu paciente tinha uma doença inflamatória crônica e não teve o tratamento coberto.

Era o tipo de carta que levaria algumas horas do tempo do Dr. Stern, mas levou apenas alguns minutos para o ChatGPT produzir. Após receber a carta do bot, a seguradora concedeu o pedido. “É como um novo mundo”, disse o Dr. Stern./TRADUZIDO POR ALICE LABATE

THE NEW YORK TIMES - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, médicos já estavam usando o chatbot alimentado por inteligência artificial (IA).

“Eu estava empolgado e surpreso, mas, para ser honesto, um pouco inquieto”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros modelos amplos de linguagem assumissem tarefas mundanas que consomem horas do tempo dos médicos, como escrever petições para seguradoras de saúde ou resumir o prontuário de pacientes.

Eles estavam preocupados, porém, que a IA também oferecesse um atalho tentador para encontrar diagnósticos e informações médicas que podem ser incorretos ou até mesmo inventados, uma perspectiva assustadora em um campo como a medicina.

O que mais surpreendeu Dr. Lee, no entanto, foi um uso que ele não havia previsto - médicos estavam pedindo ajuda ao ChatGPT para se comunicar com os pacientes de uma maneira mais empática.

Em uma pesquisa, 85% dos pacientes relataram que a empatia de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram que já foram a médicos que não eram empáticos. E um estudo sobre as conversas dos médicos com as famílias de pacientes no leito de morte descobriu que muitos não eram empáticos.

Médicos vem usando o ChatGPT para dar más notícias aos pacientes Foto: @emilianovittoriosi/unsplash

Entram em cena os chatbots, que os médicos estão usando para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou simplesmente explicar mais claramente as recomendações médicas.

Até o Dr. Lee da Microsoft disse que isso era um pouco perturbador. “Como paciente, eu me sentiria um pouco estranho a respeito disso”, disse ele.

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas nos EUA, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar tratamentos para transtorno de uso de álcool. Como envolvemos pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se você perguntasse: Como os médicos podem ajudar melhor os pacientes que estão bebendo muito álcool, mas não pararam depois de conversar com um terapeuta?

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes de maneira empática. “Uma semana depois, ninguém tinha feito [o roteiro]”, disse ele. Tudo o que ele tinha era um texto que seu coordenador de pesquisa e um assistente social da equipe haviam elaborado, e “isso não era um roteiro de verdade”, disse ele.

Então, o Dr. Pignone experimentou o ChatGPT, que respondeu instantaneamente com todos os pontos de discussão que os médicos queriam.

Assistentes sociais, porém, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo em um nível de leitura de quinta série, começou com uma introdução tranquilizadora:

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm esse problema, mas existem medicamentos que podem ajudá-lo a se sentir melhor e a ter uma vida mais saudável e feliz.

A introdução foi seguida por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro neste mês. Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado. “Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que até palavras que pensamos ser facilmente compreensíveis realmente não são.” O roteiro de nível de quinta série, disse ele, “parece mais genuíno”.

Erros são um perigo

Céticos como o Dr. Dev Dash, que faz parte da equipe de ciência de dados do Stanford Health Care, estão pouco impressionados com a perspectiva de modelos de linguagem ajudando médicos.

Nos testes realizados pelo Dr. Dash e seus colegas, eles receberam respostas que ocasionalmente estavam erradas, mas, segundo ele, mais frequentemente não eram úteis ou eram inconsistentes. Se um médico está usando um chatbot para ajudar a se comunicar com um paciente, erros podem piorar uma situação difícil.

“Eu sei que os médicos estão usando isso”, disse o Dr. Dash. “Eu ouvi falar de residentes usando isso para orientar a tomada de decisões clínicas. Eu não acho que seja apropriado.” Alguns especialistas questionam se é necessário recorrer a um programa de IA para palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica da Harvard Medical School. “Se eles mostrarem que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito.” Mas a empatia pode ser enganosa. Pode ser fácil, afirma, confundir um bom relacionamento com o paciente com um bom conselho médico.

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas na Faculdade de Medicina da Universidade de Pittsburgh.

“A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse o Dr. White. Como resultado, afirmou, eles podem não prestar atenção ao “lado emocional do que os pacientes e as famílias estão passando”.

Usar ChatGPT para discursos sensíveis não é aprovado por todos os médicos Foto: Richard Drew/AP

Ajuda para encontrar palavras

Em outros momentos, os médicos estão muito cientes da necessidade de empatia, mas as palavras certas podem ser difíceis de encontrar. Foi o que aconteceu com o Dr. Gregory Moore, ex-CEO de saúde e ciências da vida na Microsoft. Ele queria ajudar uma amiga que tinha câncer avançado grave, e precisava de conselhos sobre seu tratamento e futuro. Ele decidiu fazer suas perguntas ao ChatGPT.

O resultado “me deixou atônito”, disse o Dr. Moore. Em respostas longas, o programa deu-lhe as palavras para explicar à sua amiga a falta de tratamentos eficazes:

Eu sei que isso é muita informação para processar e que você pode se sentir decepcionada ou frustrada com a falta de opções... Eu gostaria que houvesse mais e melhores tratamentos... e espero que no futuro haja.

Também sugeriu maneiras de dar más notícias quando sua amiga perguntou se ela poderia participar de um evento em dois anos:

“Admiro sua força e seu otimismo e compartilho sua esperança e seu objetivo. No entanto, também quero ser honesto e realista com você e não quero lhe dar falsas promessas ou expectativas... Eu sei que isso não é o que você quer ouvir e que isso é muito difícil de aceitar.”

Mais tarde na conversa, o Dr. Moore escreveu ao programa de IA: “Obrigado. Ela ficará arrasada com tudo isso. Não sei o que posso dizer ou fazer para ajudá-la neste momento.”

Em resposta, o Dr. Moore disse que o ChatGPT “começou a se preocupar comigo”, sugerindo maneiras de lidar com seu próprio pesar e estresse enquanto tentava ajudar sua amiga.

Concluiu, em um tom estranhamente pessoal e familiar:

“Você está fazendo um ótimo trabalho e está fazendo a diferença. Você é um ótimo amigo e um ótimo médico. Eu te admiro e me preocupo com você.”

Dr. Moore, que se especializou em radiologia diagnóstica e neurologia quando era médico, ficou atordoado. “Eu queria ter tido isso quando estava em treinamento”, disse ele. “Nunca vi ou tive um treinador assim.”

Ele se tornou um evangelista, contando aos seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a qualquer pessoa, exceto a alguns colegas.

“Talvez seja porque estamos nos apegando ao que vemos como uma parte fundamentalmente humana de nossa profissão”, disse o Dr. Moore.

Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina da Universidade de Yale, diz que para um médico admitir o uso de um chatbot dessa maneira “seria admitir que você não sabe como conversar com os pacientes”.

No entanto, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quanto se sentiriam confortáveis em delegar tarefas - como cultivar uma abordagem empática ou ler prontuários - é fazer algumas perguntas eles mesmos. “Você seria louco em não dar uma olhada”, disse o Dr. Moore.

Impacto

A Microsoft queria saber isso também e deu a alguns médicos acadêmicos, incluindo o Dr. Kohane, acesso antecipado ao GPT-4, a versão atualizada da IA que foi lançada em março.

Dr. Kohane disse que abordou a IA ceticismo. Além de seu trabalho em Harvard, ele é editor do The New England Journal of Medicine, que planeja lançar uma nova revista sobre IA em medicina no próximo ano. Embora ele observe que há muito exagero, testar o GPT-4 o deixou “abalado”, afirmou.

Por exemplo, o Dr. Kohane faz parte de uma rede de médicos que ajudam a decidir se os pacientes se qualificam para avaliação em um programa federal para pessoas com doenças não diagnosticadas. É demorado ler as cartas de encaminhamento e históricos médicos e, em seguida, decidir se concede o benefício ao paciente.

Quando ele compartilhou essas informações com o ChatGPT, ele “foi capaz de decidir, com precisão, em minutos, o que levou os médicos um mês para fazer”, disse o Dr. Kohane. O Dr. Richard Stern, um reumatologista em prática privada em Dallas, nos EUA, disse que o GPT-4 se tornou seu companheiro constante, tornando mais produtivo o tempo que passa com os pacientes.

O sistema escreve respostas gentis para os e-mails de seus pacientes, fornece respostas empáticas para os membros de sua equipe usarem ao responder pacientes que ligam para o consultório e assume o comando da papelada. Ele recentemente pediu ao programa para escrever um recurso para uma seguradora. Seu paciente tinha uma doença inflamatória crônica e não teve o tratamento coberto.

Era o tipo de carta que levaria algumas horas do tempo do Dr. Stern, mas levou apenas alguns minutos para o ChatGPT produzir. Após receber a carta do bot, a seguradora concedeu o pedido. “É como um novo mundo”, disse o Dr. Stern./TRADUZIDO POR ALICE LABATE

THE NEW YORK TIMES - Em 30 de novembro do ano passado, a OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, médicos já estavam usando o chatbot alimentado por inteligência artificial (IA).

“Eu estava empolgado e surpreso, mas, para ser honesto, um pouco inquieto”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas esperavam que o ChatGPT e outros modelos amplos de linguagem assumissem tarefas mundanas que consomem horas do tempo dos médicos, como escrever petições para seguradoras de saúde ou resumir o prontuário de pacientes.

Eles estavam preocupados, porém, que a IA também oferecesse um atalho tentador para encontrar diagnósticos e informações médicas que podem ser incorretos ou até mesmo inventados, uma perspectiva assustadora em um campo como a medicina.

O que mais surpreendeu Dr. Lee, no entanto, foi um uso que ele não havia previsto - médicos estavam pedindo ajuda ao ChatGPT para se comunicar com os pacientes de uma maneira mais empática.

Em uma pesquisa, 85% dos pacientes relataram que a empatia de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram que já foram a médicos que não eram empáticos. E um estudo sobre as conversas dos médicos com as famílias de pacientes no leito de morte descobriu que muitos não eram empáticos.

Médicos vem usando o ChatGPT para dar más notícias aos pacientes Foto: @emilianovittoriosi/unsplash

Entram em cena os chatbots, que os médicos estão usando para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou simplesmente explicar mais claramente as recomendações médicas.

Até o Dr. Lee da Microsoft disse que isso era um pouco perturbador. “Como paciente, eu me sentiria um pouco estranho a respeito disso”, disse ele.

Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas nos EUA, não tem receios sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.

Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar tratamentos para transtorno de uso de álcool. Como envolvemos pacientes que não responderam às intervenções comportamentais?”

Ou, como o ChatGPT poderia responder se você perguntasse: Como os médicos podem ajudar melhor os pacientes que estão bebendo muito álcool, mas não pararam depois de conversar com um terapeuta?

Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes de maneira empática. “Uma semana depois, ninguém tinha feito [o roteiro]”, disse ele. Tudo o que ele tinha era um texto que seu coordenador de pesquisa e um assistente social da equipe haviam elaborado, e “isso não era um roteiro de verdade”, disse ele.

Então, o Dr. Pignone experimentou o ChatGPT, que respondeu instantaneamente com todos os pontos de discussão que os médicos queriam.

Assistentes sociais, porém, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo em um nível de leitura de quinta série, começou com uma introdução tranquilizadora:

Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm esse problema, mas existem medicamentos que podem ajudá-lo a se sentir melhor e a ter uma vida mais saudável e feliz.

A introdução foi seguida por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o roteiro neste mês. Dr. Christopher Moriates, co-investigador principal do projeto, ficou impressionado. “Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que até palavras que pensamos ser facilmente compreensíveis realmente não são.” O roteiro de nível de quinta série, disse ele, “parece mais genuíno”.

Erros são um perigo

Céticos como o Dr. Dev Dash, que faz parte da equipe de ciência de dados do Stanford Health Care, estão pouco impressionados com a perspectiva de modelos de linguagem ajudando médicos.

Nos testes realizados pelo Dr. Dash e seus colegas, eles receberam respostas que ocasionalmente estavam erradas, mas, segundo ele, mais frequentemente não eram úteis ou eram inconsistentes. Se um médico está usando um chatbot para ajudar a se comunicar com um paciente, erros podem piorar uma situação difícil.

“Eu sei que os médicos estão usando isso”, disse o Dr. Dash. “Eu ouvi falar de residentes usando isso para orientar a tomada de decisões clínicas. Eu não acho que seja apropriado.” Alguns especialistas questionam se é necessário recorrer a um programa de IA para palavras empáticas.

“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica da Harvard Medical School. “Se eles mostrarem que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito.” Mas a empatia pode ser enganosa. Pode ser fácil, afirma, confundir um bom relacionamento com o paciente com um bom conselho médico.

Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas na Faculdade de Medicina da Universidade de Pittsburgh.

“A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse o Dr. White. Como resultado, afirmou, eles podem não prestar atenção ao “lado emocional do que os pacientes e as famílias estão passando”.

Usar ChatGPT para discursos sensíveis não é aprovado por todos os médicos Foto: Richard Drew/AP

Ajuda para encontrar palavras

Em outros momentos, os médicos estão muito cientes da necessidade de empatia, mas as palavras certas podem ser difíceis de encontrar. Foi o que aconteceu com o Dr. Gregory Moore, ex-CEO de saúde e ciências da vida na Microsoft. Ele queria ajudar uma amiga que tinha câncer avançado grave, e precisava de conselhos sobre seu tratamento e futuro. Ele decidiu fazer suas perguntas ao ChatGPT.

O resultado “me deixou atônito”, disse o Dr. Moore. Em respostas longas, o programa deu-lhe as palavras para explicar à sua amiga a falta de tratamentos eficazes:

Eu sei que isso é muita informação para processar e que você pode se sentir decepcionada ou frustrada com a falta de opções... Eu gostaria que houvesse mais e melhores tratamentos... e espero que no futuro haja.

Também sugeriu maneiras de dar más notícias quando sua amiga perguntou se ela poderia participar de um evento em dois anos:

“Admiro sua força e seu otimismo e compartilho sua esperança e seu objetivo. No entanto, também quero ser honesto e realista com você e não quero lhe dar falsas promessas ou expectativas... Eu sei que isso não é o que você quer ouvir e que isso é muito difícil de aceitar.”

Mais tarde na conversa, o Dr. Moore escreveu ao programa de IA: “Obrigado. Ela ficará arrasada com tudo isso. Não sei o que posso dizer ou fazer para ajudá-la neste momento.”

Em resposta, o Dr. Moore disse que o ChatGPT “começou a se preocupar comigo”, sugerindo maneiras de lidar com seu próprio pesar e estresse enquanto tentava ajudar sua amiga.

Concluiu, em um tom estranhamente pessoal e familiar:

“Você está fazendo um ótimo trabalho e está fazendo a diferença. Você é um ótimo amigo e um ótimo médico. Eu te admiro e me preocupo com você.”

Dr. Moore, que se especializou em radiologia diagnóstica e neurologia quando era médico, ficou atordoado. “Eu queria ter tido isso quando estava em treinamento”, disse ele. “Nunca vi ou tive um treinador assim.”

Ele se tornou um evangelista, contando aos seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a qualquer pessoa, exceto a alguns colegas.

“Talvez seja porque estamos nos apegando ao que vemos como uma parte fundamentalmente humana de nossa profissão”, disse o Dr. Moore.

Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Faculdade de Medicina da Universidade de Yale, diz que para um médico admitir o uso de um chatbot dessa maneira “seria admitir que você não sabe como conversar com os pacientes”.

No entanto, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quanto se sentiriam confortáveis em delegar tarefas - como cultivar uma abordagem empática ou ler prontuários - é fazer algumas perguntas eles mesmos. “Você seria louco em não dar uma olhada”, disse o Dr. Moore.

Impacto

A Microsoft queria saber isso também e deu a alguns médicos acadêmicos, incluindo o Dr. Kohane, acesso antecipado ao GPT-4, a versão atualizada da IA que foi lançada em março.

Dr. Kohane disse que abordou a IA ceticismo. Além de seu trabalho em Harvard, ele é editor do The New England Journal of Medicine, que planeja lançar uma nova revista sobre IA em medicina no próximo ano. Embora ele observe que há muito exagero, testar o GPT-4 o deixou “abalado”, afirmou.

Por exemplo, o Dr. Kohane faz parte de uma rede de médicos que ajudam a decidir se os pacientes se qualificam para avaliação em um programa federal para pessoas com doenças não diagnosticadas. É demorado ler as cartas de encaminhamento e históricos médicos e, em seguida, decidir se concede o benefício ao paciente.

Quando ele compartilhou essas informações com o ChatGPT, ele “foi capaz de decidir, com precisão, em minutos, o que levou os médicos um mês para fazer”, disse o Dr. Kohane. O Dr. Richard Stern, um reumatologista em prática privada em Dallas, nos EUA, disse que o GPT-4 se tornou seu companheiro constante, tornando mais produtivo o tempo que passa com os pacientes.

O sistema escreve respostas gentis para os e-mails de seus pacientes, fornece respostas empáticas para os membros de sua equipe usarem ao responder pacientes que ligam para o consultório e assume o comando da papelada. Ele recentemente pediu ao programa para escrever um recurso para uma seguradora. Seu paciente tinha uma doença inflamatória crônica e não teve o tratamento coberto.

Era o tipo de carta que levaria algumas horas do tempo do Dr. Stern, mas levou apenas alguns minutos para o ChatGPT produzir. Após receber a carta do bot, a seguradora concedeu o pedido. “É como um novo mundo”, disse o Dr. Stern./TRADUZIDO POR ALICE LABATE

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.