PUBLICIDADE

ChatGPT faz recomendações ruins para pacientes com câncer, mostra estudo

Inteligência artificial deu conselhos divergentes das diretrizes nacionais dos Estados Unidos, e chegou a inventar algumas

PUBLICIDADE

Foto do author Redação
Por Redação

A inteligência artificial (IA) já está presente em diversos setores, mas ainda precisa avançar em campos como a medicina para não causar riscos aos usuários e pacientes. Um estudo recente publicado na revista JAMA Oncology mostra que o ChatGPT, da empresa OpenAI, fornece informações ruins sobre o tratamento do câncer, potencialmente prejudicando pacientes que já estão estressados e à procura desesperada de respostas.

Em cerca de um terço das consultas ao ChatGPT, a equipe de pesquisadores descobriu que a ferramenta estava emitindo recomendações erradas ou inadequadas de tratamento contra câncer, que não se alinhavam com as diretrizes médicas estabelecidas.

“As respostas do ChatGPT podem soar muito parecidas com as humanas e ser bastante convincentes”, disse a coautora do estudo e pesquisadora do Dana-Farber Cancer Institute, Danielle Bitterman, em um comunicado. “Mas, quando se trata de tomada de decisão clínica, existem muitas sutilezas para a situação única de cada paciente”.

PUBLICIDADE

“Uma resposta certa pode ter muitas nuances e não necessariamente algo que o ChatGPT ou outro grande modelo de linguagem possa fornecer”, acrescentou ela.

Para o estudo, os pesquisadores usaram 104 instruções relacionadas ao câncer de pulmão, próstata e mama. Para medir a qualidade do aconselhamento do ChatGPT, compararam a sua resposta às diretrizes de tratamento do câncer da National Comprehensive Cancer Network (NCCN).

ChatGPT é a inteligência artificial generativa mais famosa até o momento Foto: Dado Ruvic / Reuters

Os resultados mostraram que o ChatGPT gerou uma ou mais recomendações de tratamento que não estavam alinhadas com as da NCCN, a uma taxa impressionante de 34,3%. O ChatGPT também inventou 13 das 104 recomendações.

“Os desenvolvedores devem ter alguma responsabilidade na distribuição de tecnologias que não causem danos, e os pacientes e os médicos precisam estar cientes das limitações dessas tecnologias”, escreveu a equipe de Bitterman. Embora as tecnologias de IA já consigam passar em exames para praticar a medicina, é evidente que ainda não podem substituir os profissionais médicos.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.