ChatGPT acerta diagnóstico de criança de 4 anos após 17 consultas com médicos


Com ajuda da inteligência artificial, paciente conseguiu descobrir doença rara após realizar dezenas de exames nos últimos 3 anos

Por Redação

Uma criança americana de quatro anos de idade, chamada Alex, descobriu uma doença rara após três anos de procura pelo diagnóstico correto. Mas o responsável pelo acerto não foi um médico, e sim o ChatGPT, robô de inteligência artificial lançado pela OpenAI em novembro de 2022.

A história veio a público após a mãe da criança, Courtney, contar a história ao site americano de notícias Today na semana passada. O sobrenome da família foi omitido para proteger a privacidade dos envolvidos, diz a reportagem.

Courtney afirma que levou Alex a 17 consultas médicas diferentes desde 2021, quando o menino começou a apresentar problemas de locomoção, como dificuldade para sentar de pernas cruzadas. Para ela, esse era um “grande gatilho” de que “alguma coisa estrutural estava errada” no garoto.

continua após a publicidade

Em busca de respostas, a mãe foi ao ChatGPT, onde digitou no bate-papo do robô os resultados de todos os exames feitos pelo garoto. “Eu analisei linha por linha de tudo o que estava nas anotações de Alex (de ressonância magnética) e as inseri no ChatGPT”, disse Courtney ao Today.

Foi aí que o serviço de respostas da OpenAI chegou à conclusão de que Alex era portador de “síndrome de medula presa”, uma doença rara que afeta a medula espinhal da criança e prejudica o desenvolvimento, segundo o hospital infantil da Universidade Stanford. Os sintomas incluem dores nas costas, fraqueza ao andar, deformidades nos pés e até constipação.

continua após a publicidade

Após receber o suposto diagnóstico, Courtney descobriu um grupo no Facebook em que crianças tinham vários sintomas similares ao caso de Alex. Posteriormente, um médico confirmou a hipótese oferecida pelo ChatGPT.

Agora, Alex está em recuperação após realizar a cirurgia para tratar a síndrome, diz o Today.

ChatGPT não pode ser utilizado para diagnósticos

continua após a publicidade

Apesar do acerto, o ChatGPT não é uma fonte confiável de diagnósticos médicos e deve ser utilizado com ressalvas.

O ChatGPT, assim como outros chatbots de inteligência artificial, não é um “oráculo”: a tecnologia decide respostas com base no material em que foi treinado — no caso, bilhões de páginas da internet, o que inclui a Wikipédia, redes sociais e artigos acadêmicos, por exemplo.

Ainda assim, o ChatGPT pode gerar o que especialistas chamam de “alucinação”, quando a IA gera uma resposta falsa ou que foge ao bom senso - ainda que escrita de maneira convincente. Pior: não é possível saber quando o ChatGPT vai alucinar, ou seja gerar respostas erradas, o que faz dele uma fonte nada confiável para verificação de informações - especialmente diagnósticos médicos.

continua após a publicidade

Uma criança americana de quatro anos de idade, chamada Alex, descobriu uma doença rara após três anos de procura pelo diagnóstico correto. Mas o responsável pelo acerto não foi um médico, e sim o ChatGPT, robô de inteligência artificial lançado pela OpenAI em novembro de 2022.

A história veio a público após a mãe da criança, Courtney, contar a história ao site americano de notícias Today na semana passada. O sobrenome da família foi omitido para proteger a privacidade dos envolvidos, diz a reportagem.

Courtney afirma que levou Alex a 17 consultas médicas diferentes desde 2021, quando o menino começou a apresentar problemas de locomoção, como dificuldade para sentar de pernas cruzadas. Para ela, esse era um “grande gatilho” de que “alguma coisa estrutural estava errada” no garoto.

Em busca de respostas, a mãe foi ao ChatGPT, onde digitou no bate-papo do robô os resultados de todos os exames feitos pelo garoto. “Eu analisei linha por linha de tudo o que estava nas anotações de Alex (de ressonância magnética) e as inseri no ChatGPT”, disse Courtney ao Today.

Foi aí que o serviço de respostas da OpenAI chegou à conclusão de que Alex era portador de “síndrome de medula presa”, uma doença rara que afeta a medula espinhal da criança e prejudica o desenvolvimento, segundo o hospital infantil da Universidade Stanford. Os sintomas incluem dores nas costas, fraqueza ao andar, deformidades nos pés e até constipação.

Após receber o suposto diagnóstico, Courtney descobriu um grupo no Facebook em que crianças tinham vários sintomas similares ao caso de Alex. Posteriormente, um médico confirmou a hipótese oferecida pelo ChatGPT.

Agora, Alex está em recuperação após realizar a cirurgia para tratar a síndrome, diz o Today.

ChatGPT não pode ser utilizado para diagnósticos

Apesar do acerto, o ChatGPT não é uma fonte confiável de diagnósticos médicos e deve ser utilizado com ressalvas.

O ChatGPT, assim como outros chatbots de inteligência artificial, não é um “oráculo”: a tecnologia decide respostas com base no material em que foi treinado — no caso, bilhões de páginas da internet, o que inclui a Wikipédia, redes sociais e artigos acadêmicos, por exemplo.

Ainda assim, o ChatGPT pode gerar o que especialistas chamam de “alucinação”, quando a IA gera uma resposta falsa ou que foge ao bom senso - ainda que escrita de maneira convincente. Pior: não é possível saber quando o ChatGPT vai alucinar, ou seja gerar respostas erradas, o que faz dele uma fonte nada confiável para verificação de informações - especialmente diagnósticos médicos.

Uma criança americana de quatro anos de idade, chamada Alex, descobriu uma doença rara após três anos de procura pelo diagnóstico correto. Mas o responsável pelo acerto não foi um médico, e sim o ChatGPT, robô de inteligência artificial lançado pela OpenAI em novembro de 2022.

A história veio a público após a mãe da criança, Courtney, contar a história ao site americano de notícias Today na semana passada. O sobrenome da família foi omitido para proteger a privacidade dos envolvidos, diz a reportagem.

Courtney afirma que levou Alex a 17 consultas médicas diferentes desde 2021, quando o menino começou a apresentar problemas de locomoção, como dificuldade para sentar de pernas cruzadas. Para ela, esse era um “grande gatilho” de que “alguma coisa estrutural estava errada” no garoto.

Em busca de respostas, a mãe foi ao ChatGPT, onde digitou no bate-papo do robô os resultados de todos os exames feitos pelo garoto. “Eu analisei linha por linha de tudo o que estava nas anotações de Alex (de ressonância magnética) e as inseri no ChatGPT”, disse Courtney ao Today.

Foi aí que o serviço de respostas da OpenAI chegou à conclusão de que Alex era portador de “síndrome de medula presa”, uma doença rara que afeta a medula espinhal da criança e prejudica o desenvolvimento, segundo o hospital infantil da Universidade Stanford. Os sintomas incluem dores nas costas, fraqueza ao andar, deformidades nos pés e até constipação.

Após receber o suposto diagnóstico, Courtney descobriu um grupo no Facebook em que crianças tinham vários sintomas similares ao caso de Alex. Posteriormente, um médico confirmou a hipótese oferecida pelo ChatGPT.

Agora, Alex está em recuperação após realizar a cirurgia para tratar a síndrome, diz o Today.

ChatGPT não pode ser utilizado para diagnósticos

Apesar do acerto, o ChatGPT não é uma fonte confiável de diagnósticos médicos e deve ser utilizado com ressalvas.

O ChatGPT, assim como outros chatbots de inteligência artificial, não é um “oráculo”: a tecnologia decide respostas com base no material em que foi treinado — no caso, bilhões de páginas da internet, o que inclui a Wikipédia, redes sociais e artigos acadêmicos, por exemplo.

Ainda assim, o ChatGPT pode gerar o que especialistas chamam de “alucinação”, quando a IA gera uma resposta falsa ou que foge ao bom senso - ainda que escrita de maneira convincente. Pior: não é possível saber quando o ChatGPT vai alucinar, ou seja gerar respostas erradas, o que faz dele uma fonte nada confiável para verificação de informações - especialmente diagnósticos médicos.

Uma criança americana de quatro anos de idade, chamada Alex, descobriu uma doença rara após três anos de procura pelo diagnóstico correto. Mas o responsável pelo acerto não foi um médico, e sim o ChatGPT, robô de inteligência artificial lançado pela OpenAI em novembro de 2022.

A história veio a público após a mãe da criança, Courtney, contar a história ao site americano de notícias Today na semana passada. O sobrenome da família foi omitido para proteger a privacidade dos envolvidos, diz a reportagem.

Courtney afirma que levou Alex a 17 consultas médicas diferentes desde 2021, quando o menino começou a apresentar problemas de locomoção, como dificuldade para sentar de pernas cruzadas. Para ela, esse era um “grande gatilho” de que “alguma coisa estrutural estava errada” no garoto.

Em busca de respostas, a mãe foi ao ChatGPT, onde digitou no bate-papo do robô os resultados de todos os exames feitos pelo garoto. “Eu analisei linha por linha de tudo o que estava nas anotações de Alex (de ressonância magnética) e as inseri no ChatGPT”, disse Courtney ao Today.

Foi aí que o serviço de respostas da OpenAI chegou à conclusão de que Alex era portador de “síndrome de medula presa”, uma doença rara que afeta a medula espinhal da criança e prejudica o desenvolvimento, segundo o hospital infantil da Universidade Stanford. Os sintomas incluem dores nas costas, fraqueza ao andar, deformidades nos pés e até constipação.

Após receber o suposto diagnóstico, Courtney descobriu um grupo no Facebook em que crianças tinham vários sintomas similares ao caso de Alex. Posteriormente, um médico confirmou a hipótese oferecida pelo ChatGPT.

Agora, Alex está em recuperação após realizar a cirurgia para tratar a síndrome, diz o Today.

ChatGPT não pode ser utilizado para diagnósticos

Apesar do acerto, o ChatGPT não é uma fonte confiável de diagnósticos médicos e deve ser utilizado com ressalvas.

O ChatGPT, assim como outros chatbots de inteligência artificial, não é um “oráculo”: a tecnologia decide respostas com base no material em que foi treinado — no caso, bilhões de páginas da internet, o que inclui a Wikipédia, redes sociais e artigos acadêmicos, por exemplo.

Ainda assim, o ChatGPT pode gerar o que especialistas chamam de “alucinação”, quando a IA gera uma resposta falsa ou que foge ao bom senso - ainda que escrita de maneira convincente. Pior: não é possível saber quando o ChatGPT vai alucinar, ou seja gerar respostas erradas, o que faz dele uma fonte nada confiável para verificação de informações - especialmente diagnósticos médicos.

Uma criança americana de quatro anos de idade, chamada Alex, descobriu uma doença rara após três anos de procura pelo diagnóstico correto. Mas o responsável pelo acerto não foi um médico, e sim o ChatGPT, robô de inteligência artificial lançado pela OpenAI em novembro de 2022.

A história veio a público após a mãe da criança, Courtney, contar a história ao site americano de notícias Today na semana passada. O sobrenome da família foi omitido para proteger a privacidade dos envolvidos, diz a reportagem.

Courtney afirma que levou Alex a 17 consultas médicas diferentes desde 2021, quando o menino começou a apresentar problemas de locomoção, como dificuldade para sentar de pernas cruzadas. Para ela, esse era um “grande gatilho” de que “alguma coisa estrutural estava errada” no garoto.

Em busca de respostas, a mãe foi ao ChatGPT, onde digitou no bate-papo do robô os resultados de todos os exames feitos pelo garoto. “Eu analisei linha por linha de tudo o que estava nas anotações de Alex (de ressonância magnética) e as inseri no ChatGPT”, disse Courtney ao Today.

Foi aí que o serviço de respostas da OpenAI chegou à conclusão de que Alex era portador de “síndrome de medula presa”, uma doença rara que afeta a medula espinhal da criança e prejudica o desenvolvimento, segundo o hospital infantil da Universidade Stanford. Os sintomas incluem dores nas costas, fraqueza ao andar, deformidades nos pés e até constipação.

Após receber o suposto diagnóstico, Courtney descobriu um grupo no Facebook em que crianças tinham vários sintomas similares ao caso de Alex. Posteriormente, um médico confirmou a hipótese oferecida pelo ChatGPT.

Agora, Alex está em recuperação após realizar a cirurgia para tratar a síndrome, diz o Today.

ChatGPT não pode ser utilizado para diagnósticos

Apesar do acerto, o ChatGPT não é uma fonte confiável de diagnósticos médicos e deve ser utilizado com ressalvas.

O ChatGPT, assim como outros chatbots de inteligência artificial, não é um “oráculo”: a tecnologia decide respostas com base no material em que foi treinado — no caso, bilhões de páginas da internet, o que inclui a Wikipédia, redes sociais e artigos acadêmicos, por exemplo.

Ainda assim, o ChatGPT pode gerar o que especialistas chamam de “alucinação”, quando a IA gera uma resposta falsa ou que foge ao bom senso - ainda que escrita de maneira convincente. Pior: não é possível saber quando o ChatGPT vai alucinar, ou seja gerar respostas erradas, o que faz dele uma fonte nada confiável para verificação de informações - especialmente diagnósticos médicos.

Tudo Sobre

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.