Opinião|Talvez a IA nunca supere o ser humano


Ainda que realize tarefas fascinantes, a atual geração de modelos de inteligência artificial generativa está longe de alcançar a capacidade do cérebro humano

Por Luis Quiles

Nas últimas semanas, Geoffrey Hinton, um dos pioneiros e referência no campo das redes neurais profundas, tecnologia atrás dos modelos que possibilitam o ChatGPT, expressou preocupações com o rápido avanço da inteligência artificial (IA). Hinton alertou sobre a possibilidade de a IA superar a capacidade do cérebro humano e destacou os riscos dos chatbots que aprendem e compartilham conhecimento de forma independente.

Hinton construiu uma grande reputação pelo seu trabalho no desenvolvimento e pesquisa relacionados à inteligência artificial. Ele deixou o Google em maio para poder falar sem restrições sobre IA – e os perigos que ele diz existir nela. Sem dúvida, a opinião dele deve ser considerada. A preocupação com os riscos existenciais da inteligência artificial é compreensível. A evolução das redes neurais tem sido notável e esta última geração de Large Language Models (LLMs) demonstrou um nível de inteligência surpreendente. Não podemos ignorar os perigos do uso massivo dessas soluções. No entanto, afirmar que a tecnologia atual pode superar a capacidade do cérebro humano é precipitado.

Apesar da evolução nos últimos anos, as redes neurais no campo da inteligência artificial sempre foram objeto de controvérsia entre especialistas. Essa desconfiança se deve a algumas limitações que a tecnologia apresenta. Entre elas, a impossibilidade de interpretar seu funcionamento e a apresentação de comportamentos errôneos em situações para as quais não foram treinadas. Enquanto os modelos de aprendizado de máquina com base probabilística conseguem identificar situações e/ou dados em que não têm fundamento para tomar decisões, as redes neurais, embora capazes de realizar tarefas complexas e fornecer resultados precisos em situações familiares, apresentam uma capacidade limitada de lidar com dados fora de sua experiência prévia. Nessas situações, as redes neurais podem cometer erros – e, importante, perdem a sensibilidade para perceber quando estão errando. Esse fenômeno é conhecido como alucinação.

continua após a publicidade

O ChatGPT, que é baseado numa rede neural chamada Transformer, apresenta algumas alucinações. Podemos citar três: invenção de referências de artigos científicos ao gerar bibliografia para questões técnicas específicas; invenção de dados ou fatos relacionados a temas específicos que não estão bem representados na base de treinamento dos modelos, inclusive fatos e links; e raciocínios errôneos na tentativa de solução de problemas de lógica e matemáticos.

Ainda que realize tarefas fascinantes, a atual geração de modelos de IA generativa está longe de alcançar a capacidade do cérebro humano. Apesar da grande quantidade de informação que esses modelos são capazes de absorver e utilizar, eles ainda não têm a capacidade de discernir quando estão “alucinando”. Perceber a si próprio é um atributo genuinamente humano – estudado por filósofos desde a antiguidade. Nós, humanos, possuímos intrinsecamente uma sensibilidade para entender o embasamento de nossas decisões ou informações. E, para que a inteligência artificial se torne realmente confiável, ela precisará ter a capacidade de analisar o próprio comportamento – e julgar suas ações. A inteligência útil vai muito além da capacidade de retenção de conhecimento e velocidade de processamento.

Avanços recentes na pesquisa têm se concentrado em melhorar a capacidade das redes neurais de lidar com dados desconhecidos e incertos. Mas, por enquanto, os avanços práticos nesse campo são escassos. Ainda levará décadas para esse problema ser solucionado. Há um outro complicador: a tentativa de controlar as alucinações pode tirar a criatividade da IA. Isso ocorre porque o que dá a criatividade é o que acaba provocando as alucinações. As formas que conhecemos hoje de resolver esse problema limitarão a capacidade da inteligência artificial.

continua após a publicidade

De fato, modelos como o GPT têm um parâmetro denominado “temperatura”, que pode assumir valores entre 0 e 1. Quanto maior o valor, mais criativo é o modelo – e maior a probabilidade de gerar alucinações. Para tarefas que requerem pouca criatividade, recomenda-se valores iguais ou inferiores a 0,3. Para atividades de escrita, um valor em torno de 0,5 é adequado, enquanto para tarefas altamente criativas, como as relacionadas ao marketing, são sugeridos valores entre 0,7 e 1. Apesar da existência desse parâmetro, nós, como humanos, ainda precisamos ajustá-lo externamente em função do resultado desejado. Mesmo assim, não estamos imunes à possibilidade de alucinações indesejadas.

Ao que tudo indica, o desenvolvimento da IA a manterá submissa ao homem. Ainda não há embasamento para afirmações catastróficas, tais como “a IA irá escravizar o ser humano” ou “a IA poderá levar o ser humano à extinção”. O futuro está na colaboração entre os seres humanos e a inteligência artificial.

A IA tem o potencial de fornecer insights e insumos que nos ajudam a tomar decisões de forma rápida e eficiente, aproveitando ao máximo suas capacidades generativas e levando em consideração no desenho da aplicação a mitigação de possíveis impactos negativos, especialmente as alucinações. No entanto, é crucial destacar que essa colaboração deve sempre ser supervisionada e guiada pelos humanos.

continua após a publicidade

No futuro, os médicos poderão se beneficiar das soluções geradas pela IA para aprimorar o diagnóstico. Isso porque a IA tem limitações em explicar completamente o raciocínio por trás de suas recomendações, o que, num contexto como o hospitalar, gera dúvidas e insegurança. Os médicos, com sua experiência clínica, podem questionar, validar ou refutar as informações fornecidas pela IA. E, claro, passar todas as informações aos pacientes e seus familiares.

As habilidades humanas, como intuição, experiência clínica e empatia, são e continuarão sendo fundamentais. Os médicos trazem interpretação especializada, consideram o contexto individual do paciente, oferecem suporte emocional e abordam suas preocupações. Eles questionam as informações da IA e as contrastam com a história do paciente. A combinação dessas habilidades humanas com a IA pode levar a melhores resultados e cuidados mais completos.

O desenvolvimento da IA deve seguir este caminho: garantir que a colaboração entre humanos e tecnologia seja sempre guiada por valores humanos, ética e uma compreensão clara das limitações e possíveis riscos da tecnologia. Dessa forma, podemos aproveitar ao máximo o potencial da inteligência artificial, ao mesmo tempo que preservamos o que nos torna humanos: nossa capacidade de análise crítica, empatia e tomada de decisões informadas.

continua após a publicidade

*

É DIRETOR DE INTELIGÊNCIA ARTIFICIAL DA NTT DATA E TEM MAIS DE 15 ANOS DE ESTUDOS SOBRE O TEMA

Nas últimas semanas, Geoffrey Hinton, um dos pioneiros e referência no campo das redes neurais profundas, tecnologia atrás dos modelos que possibilitam o ChatGPT, expressou preocupações com o rápido avanço da inteligência artificial (IA). Hinton alertou sobre a possibilidade de a IA superar a capacidade do cérebro humano e destacou os riscos dos chatbots que aprendem e compartilham conhecimento de forma independente.

Hinton construiu uma grande reputação pelo seu trabalho no desenvolvimento e pesquisa relacionados à inteligência artificial. Ele deixou o Google em maio para poder falar sem restrições sobre IA – e os perigos que ele diz existir nela. Sem dúvida, a opinião dele deve ser considerada. A preocupação com os riscos existenciais da inteligência artificial é compreensível. A evolução das redes neurais tem sido notável e esta última geração de Large Language Models (LLMs) demonstrou um nível de inteligência surpreendente. Não podemos ignorar os perigos do uso massivo dessas soluções. No entanto, afirmar que a tecnologia atual pode superar a capacidade do cérebro humano é precipitado.

Apesar da evolução nos últimos anos, as redes neurais no campo da inteligência artificial sempre foram objeto de controvérsia entre especialistas. Essa desconfiança se deve a algumas limitações que a tecnologia apresenta. Entre elas, a impossibilidade de interpretar seu funcionamento e a apresentação de comportamentos errôneos em situações para as quais não foram treinadas. Enquanto os modelos de aprendizado de máquina com base probabilística conseguem identificar situações e/ou dados em que não têm fundamento para tomar decisões, as redes neurais, embora capazes de realizar tarefas complexas e fornecer resultados precisos em situações familiares, apresentam uma capacidade limitada de lidar com dados fora de sua experiência prévia. Nessas situações, as redes neurais podem cometer erros – e, importante, perdem a sensibilidade para perceber quando estão errando. Esse fenômeno é conhecido como alucinação.

O ChatGPT, que é baseado numa rede neural chamada Transformer, apresenta algumas alucinações. Podemos citar três: invenção de referências de artigos científicos ao gerar bibliografia para questões técnicas específicas; invenção de dados ou fatos relacionados a temas específicos que não estão bem representados na base de treinamento dos modelos, inclusive fatos e links; e raciocínios errôneos na tentativa de solução de problemas de lógica e matemáticos.

Ainda que realize tarefas fascinantes, a atual geração de modelos de IA generativa está longe de alcançar a capacidade do cérebro humano. Apesar da grande quantidade de informação que esses modelos são capazes de absorver e utilizar, eles ainda não têm a capacidade de discernir quando estão “alucinando”. Perceber a si próprio é um atributo genuinamente humano – estudado por filósofos desde a antiguidade. Nós, humanos, possuímos intrinsecamente uma sensibilidade para entender o embasamento de nossas decisões ou informações. E, para que a inteligência artificial se torne realmente confiável, ela precisará ter a capacidade de analisar o próprio comportamento – e julgar suas ações. A inteligência útil vai muito além da capacidade de retenção de conhecimento e velocidade de processamento.

Avanços recentes na pesquisa têm se concentrado em melhorar a capacidade das redes neurais de lidar com dados desconhecidos e incertos. Mas, por enquanto, os avanços práticos nesse campo são escassos. Ainda levará décadas para esse problema ser solucionado. Há um outro complicador: a tentativa de controlar as alucinações pode tirar a criatividade da IA. Isso ocorre porque o que dá a criatividade é o que acaba provocando as alucinações. As formas que conhecemos hoje de resolver esse problema limitarão a capacidade da inteligência artificial.

De fato, modelos como o GPT têm um parâmetro denominado “temperatura”, que pode assumir valores entre 0 e 1. Quanto maior o valor, mais criativo é o modelo – e maior a probabilidade de gerar alucinações. Para tarefas que requerem pouca criatividade, recomenda-se valores iguais ou inferiores a 0,3. Para atividades de escrita, um valor em torno de 0,5 é adequado, enquanto para tarefas altamente criativas, como as relacionadas ao marketing, são sugeridos valores entre 0,7 e 1. Apesar da existência desse parâmetro, nós, como humanos, ainda precisamos ajustá-lo externamente em função do resultado desejado. Mesmo assim, não estamos imunes à possibilidade de alucinações indesejadas.

Ao que tudo indica, o desenvolvimento da IA a manterá submissa ao homem. Ainda não há embasamento para afirmações catastróficas, tais como “a IA irá escravizar o ser humano” ou “a IA poderá levar o ser humano à extinção”. O futuro está na colaboração entre os seres humanos e a inteligência artificial.

A IA tem o potencial de fornecer insights e insumos que nos ajudam a tomar decisões de forma rápida e eficiente, aproveitando ao máximo suas capacidades generativas e levando em consideração no desenho da aplicação a mitigação de possíveis impactos negativos, especialmente as alucinações. No entanto, é crucial destacar que essa colaboração deve sempre ser supervisionada e guiada pelos humanos.

No futuro, os médicos poderão se beneficiar das soluções geradas pela IA para aprimorar o diagnóstico. Isso porque a IA tem limitações em explicar completamente o raciocínio por trás de suas recomendações, o que, num contexto como o hospitalar, gera dúvidas e insegurança. Os médicos, com sua experiência clínica, podem questionar, validar ou refutar as informações fornecidas pela IA. E, claro, passar todas as informações aos pacientes e seus familiares.

As habilidades humanas, como intuição, experiência clínica e empatia, são e continuarão sendo fundamentais. Os médicos trazem interpretação especializada, consideram o contexto individual do paciente, oferecem suporte emocional e abordam suas preocupações. Eles questionam as informações da IA e as contrastam com a história do paciente. A combinação dessas habilidades humanas com a IA pode levar a melhores resultados e cuidados mais completos.

O desenvolvimento da IA deve seguir este caminho: garantir que a colaboração entre humanos e tecnologia seja sempre guiada por valores humanos, ética e uma compreensão clara das limitações e possíveis riscos da tecnologia. Dessa forma, podemos aproveitar ao máximo o potencial da inteligência artificial, ao mesmo tempo que preservamos o que nos torna humanos: nossa capacidade de análise crítica, empatia e tomada de decisões informadas.

*

É DIRETOR DE INTELIGÊNCIA ARTIFICIAL DA NTT DATA E TEM MAIS DE 15 ANOS DE ESTUDOS SOBRE O TEMA

Nas últimas semanas, Geoffrey Hinton, um dos pioneiros e referência no campo das redes neurais profundas, tecnologia atrás dos modelos que possibilitam o ChatGPT, expressou preocupações com o rápido avanço da inteligência artificial (IA). Hinton alertou sobre a possibilidade de a IA superar a capacidade do cérebro humano e destacou os riscos dos chatbots que aprendem e compartilham conhecimento de forma independente.

Hinton construiu uma grande reputação pelo seu trabalho no desenvolvimento e pesquisa relacionados à inteligência artificial. Ele deixou o Google em maio para poder falar sem restrições sobre IA – e os perigos que ele diz existir nela. Sem dúvida, a opinião dele deve ser considerada. A preocupação com os riscos existenciais da inteligência artificial é compreensível. A evolução das redes neurais tem sido notável e esta última geração de Large Language Models (LLMs) demonstrou um nível de inteligência surpreendente. Não podemos ignorar os perigos do uso massivo dessas soluções. No entanto, afirmar que a tecnologia atual pode superar a capacidade do cérebro humano é precipitado.

Apesar da evolução nos últimos anos, as redes neurais no campo da inteligência artificial sempre foram objeto de controvérsia entre especialistas. Essa desconfiança se deve a algumas limitações que a tecnologia apresenta. Entre elas, a impossibilidade de interpretar seu funcionamento e a apresentação de comportamentos errôneos em situações para as quais não foram treinadas. Enquanto os modelos de aprendizado de máquina com base probabilística conseguem identificar situações e/ou dados em que não têm fundamento para tomar decisões, as redes neurais, embora capazes de realizar tarefas complexas e fornecer resultados precisos em situações familiares, apresentam uma capacidade limitada de lidar com dados fora de sua experiência prévia. Nessas situações, as redes neurais podem cometer erros – e, importante, perdem a sensibilidade para perceber quando estão errando. Esse fenômeno é conhecido como alucinação.

O ChatGPT, que é baseado numa rede neural chamada Transformer, apresenta algumas alucinações. Podemos citar três: invenção de referências de artigos científicos ao gerar bibliografia para questões técnicas específicas; invenção de dados ou fatos relacionados a temas específicos que não estão bem representados na base de treinamento dos modelos, inclusive fatos e links; e raciocínios errôneos na tentativa de solução de problemas de lógica e matemáticos.

Ainda que realize tarefas fascinantes, a atual geração de modelos de IA generativa está longe de alcançar a capacidade do cérebro humano. Apesar da grande quantidade de informação que esses modelos são capazes de absorver e utilizar, eles ainda não têm a capacidade de discernir quando estão “alucinando”. Perceber a si próprio é um atributo genuinamente humano – estudado por filósofos desde a antiguidade. Nós, humanos, possuímos intrinsecamente uma sensibilidade para entender o embasamento de nossas decisões ou informações. E, para que a inteligência artificial se torne realmente confiável, ela precisará ter a capacidade de analisar o próprio comportamento – e julgar suas ações. A inteligência útil vai muito além da capacidade de retenção de conhecimento e velocidade de processamento.

Avanços recentes na pesquisa têm se concentrado em melhorar a capacidade das redes neurais de lidar com dados desconhecidos e incertos. Mas, por enquanto, os avanços práticos nesse campo são escassos. Ainda levará décadas para esse problema ser solucionado. Há um outro complicador: a tentativa de controlar as alucinações pode tirar a criatividade da IA. Isso ocorre porque o que dá a criatividade é o que acaba provocando as alucinações. As formas que conhecemos hoje de resolver esse problema limitarão a capacidade da inteligência artificial.

De fato, modelos como o GPT têm um parâmetro denominado “temperatura”, que pode assumir valores entre 0 e 1. Quanto maior o valor, mais criativo é o modelo – e maior a probabilidade de gerar alucinações. Para tarefas que requerem pouca criatividade, recomenda-se valores iguais ou inferiores a 0,3. Para atividades de escrita, um valor em torno de 0,5 é adequado, enquanto para tarefas altamente criativas, como as relacionadas ao marketing, são sugeridos valores entre 0,7 e 1. Apesar da existência desse parâmetro, nós, como humanos, ainda precisamos ajustá-lo externamente em função do resultado desejado. Mesmo assim, não estamos imunes à possibilidade de alucinações indesejadas.

Ao que tudo indica, o desenvolvimento da IA a manterá submissa ao homem. Ainda não há embasamento para afirmações catastróficas, tais como “a IA irá escravizar o ser humano” ou “a IA poderá levar o ser humano à extinção”. O futuro está na colaboração entre os seres humanos e a inteligência artificial.

A IA tem o potencial de fornecer insights e insumos que nos ajudam a tomar decisões de forma rápida e eficiente, aproveitando ao máximo suas capacidades generativas e levando em consideração no desenho da aplicação a mitigação de possíveis impactos negativos, especialmente as alucinações. No entanto, é crucial destacar que essa colaboração deve sempre ser supervisionada e guiada pelos humanos.

No futuro, os médicos poderão se beneficiar das soluções geradas pela IA para aprimorar o diagnóstico. Isso porque a IA tem limitações em explicar completamente o raciocínio por trás de suas recomendações, o que, num contexto como o hospitalar, gera dúvidas e insegurança. Os médicos, com sua experiência clínica, podem questionar, validar ou refutar as informações fornecidas pela IA. E, claro, passar todas as informações aos pacientes e seus familiares.

As habilidades humanas, como intuição, experiência clínica e empatia, são e continuarão sendo fundamentais. Os médicos trazem interpretação especializada, consideram o contexto individual do paciente, oferecem suporte emocional e abordam suas preocupações. Eles questionam as informações da IA e as contrastam com a história do paciente. A combinação dessas habilidades humanas com a IA pode levar a melhores resultados e cuidados mais completos.

O desenvolvimento da IA deve seguir este caminho: garantir que a colaboração entre humanos e tecnologia seja sempre guiada por valores humanos, ética e uma compreensão clara das limitações e possíveis riscos da tecnologia. Dessa forma, podemos aproveitar ao máximo o potencial da inteligência artificial, ao mesmo tempo que preservamos o que nos torna humanos: nossa capacidade de análise crítica, empatia e tomada de decisões informadas.

*

É DIRETOR DE INTELIGÊNCIA ARTIFICIAL DA NTT DATA E TEM MAIS DE 15 ANOS DE ESTUDOS SOBRE O TEMA

Nas últimas semanas, Geoffrey Hinton, um dos pioneiros e referência no campo das redes neurais profundas, tecnologia atrás dos modelos que possibilitam o ChatGPT, expressou preocupações com o rápido avanço da inteligência artificial (IA). Hinton alertou sobre a possibilidade de a IA superar a capacidade do cérebro humano e destacou os riscos dos chatbots que aprendem e compartilham conhecimento de forma independente.

Hinton construiu uma grande reputação pelo seu trabalho no desenvolvimento e pesquisa relacionados à inteligência artificial. Ele deixou o Google em maio para poder falar sem restrições sobre IA – e os perigos que ele diz existir nela. Sem dúvida, a opinião dele deve ser considerada. A preocupação com os riscos existenciais da inteligência artificial é compreensível. A evolução das redes neurais tem sido notável e esta última geração de Large Language Models (LLMs) demonstrou um nível de inteligência surpreendente. Não podemos ignorar os perigos do uso massivo dessas soluções. No entanto, afirmar que a tecnologia atual pode superar a capacidade do cérebro humano é precipitado.

Apesar da evolução nos últimos anos, as redes neurais no campo da inteligência artificial sempre foram objeto de controvérsia entre especialistas. Essa desconfiança se deve a algumas limitações que a tecnologia apresenta. Entre elas, a impossibilidade de interpretar seu funcionamento e a apresentação de comportamentos errôneos em situações para as quais não foram treinadas. Enquanto os modelos de aprendizado de máquina com base probabilística conseguem identificar situações e/ou dados em que não têm fundamento para tomar decisões, as redes neurais, embora capazes de realizar tarefas complexas e fornecer resultados precisos em situações familiares, apresentam uma capacidade limitada de lidar com dados fora de sua experiência prévia. Nessas situações, as redes neurais podem cometer erros – e, importante, perdem a sensibilidade para perceber quando estão errando. Esse fenômeno é conhecido como alucinação.

O ChatGPT, que é baseado numa rede neural chamada Transformer, apresenta algumas alucinações. Podemos citar três: invenção de referências de artigos científicos ao gerar bibliografia para questões técnicas específicas; invenção de dados ou fatos relacionados a temas específicos que não estão bem representados na base de treinamento dos modelos, inclusive fatos e links; e raciocínios errôneos na tentativa de solução de problemas de lógica e matemáticos.

Ainda que realize tarefas fascinantes, a atual geração de modelos de IA generativa está longe de alcançar a capacidade do cérebro humano. Apesar da grande quantidade de informação que esses modelos são capazes de absorver e utilizar, eles ainda não têm a capacidade de discernir quando estão “alucinando”. Perceber a si próprio é um atributo genuinamente humano – estudado por filósofos desde a antiguidade. Nós, humanos, possuímos intrinsecamente uma sensibilidade para entender o embasamento de nossas decisões ou informações. E, para que a inteligência artificial se torne realmente confiável, ela precisará ter a capacidade de analisar o próprio comportamento – e julgar suas ações. A inteligência útil vai muito além da capacidade de retenção de conhecimento e velocidade de processamento.

Avanços recentes na pesquisa têm se concentrado em melhorar a capacidade das redes neurais de lidar com dados desconhecidos e incertos. Mas, por enquanto, os avanços práticos nesse campo são escassos. Ainda levará décadas para esse problema ser solucionado. Há um outro complicador: a tentativa de controlar as alucinações pode tirar a criatividade da IA. Isso ocorre porque o que dá a criatividade é o que acaba provocando as alucinações. As formas que conhecemos hoje de resolver esse problema limitarão a capacidade da inteligência artificial.

De fato, modelos como o GPT têm um parâmetro denominado “temperatura”, que pode assumir valores entre 0 e 1. Quanto maior o valor, mais criativo é o modelo – e maior a probabilidade de gerar alucinações. Para tarefas que requerem pouca criatividade, recomenda-se valores iguais ou inferiores a 0,3. Para atividades de escrita, um valor em torno de 0,5 é adequado, enquanto para tarefas altamente criativas, como as relacionadas ao marketing, são sugeridos valores entre 0,7 e 1. Apesar da existência desse parâmetro, nós, como humanos, ainda precisamos ajustá-lo externamente em função do resultado desejado. Mesmo assim, não estamos imunes à possibilidade de alucinações indesejadas.

Ao que tudo indica, o desenvolvimento da IA a manterá submissa ao homem. Ainda não há embasamento para afirmações catastróficas, tais como “a IA irá escravizar o ser humano” ou “a IA poderá levar o ser humano à extinção”. O futuro está na colaboração entre os seres humanos e a inteligência artificial.

A IA tem o potencial de fornecer insights e insumos que nos ajudam a tomar decisões de forma rápida e eficiente, aproveitando ao máximo suas capacidades generativas e levando em consideração no desenho da aplicação a mitigação de possíveis impactos negativos, especialmente as alucinações. No entanto, é crucial destacar que essa colaboração deve sempre ser supervisionada e guiada pelos humanos.

No futuro, os médicos poderão se beneficiar das soluções geradas pela IA para aprimorar o diagnóstico. Isso porque a IA tem limitações em explicar completamente o raciocínio por trás de suas recomendações, o que, num contexto como o hospitalar, gera dúvidas e insegurança. Os médicos, com sua experiência clínica, podem questionar, validar ou refutar as informações fornecidas pela IA. E, claro, passar todas as informações aos pacientes e seus familiares.

As habilidades humanas, como intuição, experiência clínica e empatia, são e continuarão sendo fundamentais. Os médicos trazem interpretação especializada, consideram o contexto individual do paciente, oferecem suporte emocional e abordam suas preocupações. Eles questionam as informações da IA e as contrastam com a história do paciente. A combinação dessas habilidades humanas com a IA pode levar a melhores resultados e cuidados mais completos.

O desenvolvimento da IA deve seguir este caminho: garantir que a colaboração entre humanos e tecnologia seja sempre guiada por valores humanos, ética e uma compreensão clara das limitações e possíveis riscos da tecnologia. Dessa forma, podemos aproveitar ao máximo o potencial da inteligência artificial, ao mesmo tempo que preservamos o que nos torna humanos: nossa capacidade de análise crítica, empatia e tomada de decisões informadas.

*

É DIRETOR DE INTELIGÊNCIA ARTIFICIAL DA NTT DATA E TEM MAIS DE 15 ANOS DE ESTUDOS SOBRE O TEMA

Nas últimas semanas, Geoffrey Hinton, um dos pioneiros e referência no campo das redes neurais profundas, tecnologia atrás dos modelos que possibilitam o ChatGPT, expressou preocupações com o rápido avanço da inteligência artificial (IA). Hinton alertou sobre a possibilidade de a IA superar a capacidade do cérebro humano e destacou os riscos dos chatbots que aprendem e compartilham conhecimento de forma independente.

Hinton construiu uma grande reputação pelo seu trabalho no desenvolvimento e pesquisa relacionados à inteligência artificial. Ele deixou o Google em maio para poder falar sem restrições sobre IA – e os perigos que ele diz existir nela. Sem dúvida, a opinião dele deve ser considerada. A preocupação com os riscos existenciais da inteligência artificial é compreensível. A evolução das redes neurais tem sido notável e esta última geração de Large Language Models (LLMs) demonstrou um nível de inteligência surpreendente. Não podemos ignorar os perigos do uso massivo dessas soluções. No entanto, afirmar que a tecnologia atual pode superar a capacidade do cérebro humano é precipitado.

Apesar da evolução nos últimos anos, as redes neurais no campo da inteligência artificial sempre foram objeto de controvérsia entre especialistas. Essa desconfiança se deve a algumas limitações que a tecnologia apresenta. Entre elas, a impossibilidade de interpretar seu funcionamento e a apresentação de comportamentos errôneos em situações para as quais não foram treinadas. Enquanto os modelos de aprendizado de máquina com base probabilística conseguem identificar situações e/ou dados em que não têm fundamento para tomar decisões, as redes neurais, embora capazes de realizar tarefas complexas e fornecer resultados precisos em situações familiares, apresentam uma capacidade limitada de lidar com dados fora de sua experiência prévia. Nessas situações, as redes neurais podem cometer erros – e, importante, perdem a sensibilidade para perceber quando estão errando. Esse fenômeno é conhecido como alucinação.

O ChatGPT, que é baseado numa rede neural chamada Transformer, apresenta algumas alucinações. Podemos citar três: invenção de referências de artigos científicos ao gerar bibliografia para questões técnicas específicas; invenção de dados ou fatos relacionados a temas específicos que não estão bem representados na base de treinamento dos modelos, inclusive fatos e links; e raciocínios errôneos na tentativa de solução de problemas de lógica e matemáticos.

Ainda que realize tarefas fascinantes, a atual geração de modelos de IA generativa está longe de alcançar a capacidade do cérebro humano. Apesar da grande quantidade de informação que esses modelos são capazes de absorver e utilizar, eles ainda não têm a capacidade de discernir quando estão “alucinando”. Perceber a si próprio é um atributo genuinamente humano – estudado por filósofos desde a antiguidade. Nós, humanos, possuímos intrinsecamente uma sensibilidade para entender o embasamento de nossas decisões ou informações. E, para que a inteligência artificial se torne realmente confiável, ela precisará ter a capacidade de analisar o próprio comportamento – e julgar suas ações. A inteligência útil vai muito além da capacidade de retenção de conhecimento e velocidade de processamento.

Avanços recentes na pesquisa têm se concentrado em melhorar a capacidade das redes neurais de lidar com dados desconhecidos e incertos. Mas, por enquanto, os avanços práticos nesse campo são escassos. Ainda levará décadas para esse problema ser solucionado. Há um outro complicador: a tentativa de controlar as alucinações pode tirar a criatividade da IA. Isso ocorre porque o que dá a criatividade é o que acaba provocando as alucinações. As formas que conhecemos hoje de resolver esse problema limitarão a capacidade da inteligência artificial.

De fato, modelos como o GPT têm um parâmetro denominado “temperatura”, que pode assumir valores entre 0 e 1. Quanto maior o valor, mais criativo é o modelo – e maior a probabilidade de gerar alucinações. Para tarefas que requerem pouca criatividade, recomenda-se valores iguais ou inferiores a 0,3. Para atividades de escrita, um valor em torno de 0,5 é adequado, enquanto para tarefas altamente criativas, como as relacionadas ao marketing, são sugeridos valores entre 0,7 e 1. Apesar da existência desse parâmetro, nós, como humanos, ainda precisamos ajustá-lo externamente em função do resultado desejado. Mesmo assim, não estamos imunes à possibilidade de alucinações indesejadas.

Ao que tudo indica, o desenvolvimento da IA a manterá submissa ao homem. Ainda não há embasamento para afirmações catastróficas, tais como “a IA irá escravizar o ser humano” ou “a IA poderá levar o ser humano à extinção”. O futuro está na colaboração entre os seres humanos e a inteligência artificial.

A IA tem o potencial de fornecer insights e insumos que nos ajudam a tomar decisões de forma rápida e eficiente, aproveitando ao máximo suas capacidades generativas e levando em consideração no desenho da aplicação a mitigação de possíveis impactos negativos, especialmente as alucinações. No entanto, é crucial destacar que essa colaboração deve sempre ser supervisionada e guiada pelos humanos.

No futuro, os médicos poderão se beneficiar das soluções geradas pela IA para aprimorar o diagnóstico. Isso porque a IA tem limitações em explicar completamente o raciocínio por trás de suas recomendações, o que, num contexto como o hospitalar, gera dúvidas e insegurança. Os médicos, com sua experiência clínica, podem questionar, validar ou refutar as informações fornecidas pela IA. E, claro, passar todas as informações aos pacientes e seus familiares.

As habilidades humanas, como intuição, experiência clínica e empatia, são e continuarão sendo fundamentais. Os médicos trazem interpretação especializada, consideram o contexto individual do paciente, oferecem suporte emocional e abordam suas preocupações. Eles questionam as informações da IA e as contrastam com a história do paciente. A combinação dessas habilidades humanas com a IA pode levar a melhores resultados e cuidados mais completos.

O desenvolvimento da IA deve seguir este caminho: garantir que a colaboração entre humanos e tecnologia seja sempre guiada por valores humanos, ética e uma compreensão clara das limitações e possíveis riscos da tecnologia. Dessa forma, podemos aproveitar ao máximo o potencial da inteligência artificial, ao mesmo tempo que preservamos o que nos torna humanos: nossa capacidade de análise crítica, empatia e tomada de decisões informadas.

*

É DIRETOR DE INTELIGÊNCIA ARTIFICIAL DA NTT DATA E TEM MAIS DE 15 ANOS DE ESTUDOS SOBRE O TEMA

Opinião por Luis Quiles

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.