Uma criança americana de quatro anos de idade, chamada Alex, descobriu uma doença rara após três anos de procura pelo diagnóstico correto. Mas o responsável pelo acerto não foi um médico, e sim o ChatGPT, robô de inteligência artificial lançado pela OpenAI em novembro de 2022.
A história veio a público após a mãe da criança, Courtney, contar a história ao site americano de notícias Today na semana passada. O sobrenome da família foi omitido para proteger a privacidade dos envolvidos, diz a reportagem.
Courtney afirma que levou Alex a 17 consultas médicas diferentes desde 2021, quando o menino começou a apresentar problemas de locomoção, como dificuldade para sentar de pernas cruzadas. Para ela, esse era um “grande gatilho” de que “alguma coisa estrutural estava errada” no garoto.
Em busca de respostas, a mãe foi ao ChatGPT, onde digitou no bate-papo do robô os resultados de todos os exames feitos pelo garoto. “Eu analisei linha por linha de tudo o que estava nas anotações de Alex (de ressonância magnética) e as inseri no ChatGPT”, disse Courtney ao Today.
Foi aí que o serviço de respostas da OpenAI chegou à conclusão de que Alex era portador de “síndrome de medula presa”, uma doença rara que afeta a medula espinhal da criança e prejudica o desenvolvimento, segundo o hospital infantil da Universidade Stanford. Os sintomas incluem dores nas costas, fraqueza ao andar, deformidades nos pés e até constipação.
Leia também
Após receber o suposto diagnóstico, Courtney descobriu um grupo no Facebook em que crianças tinham vários sintomas similares ao caso de Alex. Posteriormente, um médico confirmou a hipótese oferecida pelo ChatGPT.
Agora, Alex está em recuperação após realizar a cirurgia para tratar a síndrome, diz o Today.
ChatGPT não pode ser utilizado para diagnósticos
Apesar do acerto, o ChatGPT não é uma fonte confiável de diagnósticos médicos e deve ser utilizado com ressalvas.
O ChatGPT, assim como outros chatbots de inteligência artificial, não é um “oráculo”: a tecnologia decide respostas com base no material em que foi treinado — no caso, bilhões de páginas da internet, o que inclui a Wikipédia, redes sociais e artigos acadêmicos, por exemplo.
Ainda assim, o ChatGPT pode gerar o que especialistas chamam de “alucinação”, quando a IA gera uma resposta falsa ou que foge ao bom senso - ainda que escrita de maneira convincente. Pior: não é possível saber quando o ChatGPT vai alucinar, ou seja gerar respostas erradas, o que faz dele uma fonte nada confiável para verificação de informações - especialmente diagnósticos médicos.
Alcântara: o desastre espacial brasileiro
Os comentários são exclusivos para assinantes do Estadão.