Foto do(a) coluna

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Opinião|Por que a IA ainda não descobriu a cura para o câncer? Problema pode estar no treinamento


Modelos treinados para responder humanos têm dificuldade em inovar

Por Alexandre Chiavegatto Filho

Milhões de pessoas ao redor do mundo já pediram às LLMs, como o ChatGPT, para fazerem descobertas científicas inovadoras ou resolverem paradoxos matemáticos que têm persistido por séculos. Invariavelmente, todos saem frustrados com as respostas vagas e sem inspiração dos algoritmos de linguagem.

Afinal, se são mesmo tão inteligentes, capazes de criar poesias renascentistas sobre o iPhone, ou escrever um episódio de Chaves no estilo de Kant, por que fracassam ao tentar gerar conhecimento realmente novo?

Questão depende do tipo de treinamento que a IA recebe
Questão depende do tipo de treinamento que a IA recebe Foto: Sergio Barzaghi /Estadão
continua após a publicidade

A resposta, em grande parte, está no seu treinamento. Modelos de inteligência artificial (IA) não fazem descobertas porque são projetados para interpolar, não extrapolar. Eles ajustam padrões a partir de dados históricos, mas não conseguem romper com esses padrões.

Uma parte importante do treinamento das atuais LLMs é o ajuste-fino supervisionado, em que conjuntos de perguntas e respostas são inseridos nos algoritmos para aprenderem como humanos gostam de receber informações. Isso os torna altamente eficazes na geração de textos coerentes para o usuário médio, mas os aprisiona em um ciclo de previsibilidade.

A ciência, por outro lado, exige imaginação e a coragem de errar. A genialidade nem sempre anda de mãos dadas com a simpatia e a polidez, como qualquer biógrafo de grandes mentes pode confirmar.

continua após a publicidade

A solução virá de abordagens que permitam mais exploração e menos reprodução de padrões existentes. Treinamentos baseados em aprendizado por reforço, onde a IA recebe recompensas de acordo com as suas descobertas, permitirão que modelos explorem caminhos mais inovadores. Além disso, permitir mais tempo de inferência para a geração de hipóteses no momento da resposta pode torná-la mais criativa dentro dos limites do rigor científico.

O caso AlphaFold mostra que isso é possível. Treinado para predizer estruturas de proteína, o algoritmo não se limitou a organizar conhecimento prévio nem a otimizar interações humanas, mas gerou novas soluções, ajudando a desvendar estruturas antes desconhecidas e levando seus criadores a ganhar o Prêmio Nobel em 2024.

continua após a publicidade

A cura do câncer provavelmente não virá de um chatbot como o ChatGPT que temos hoje, mas de modelos que aprendam como cientistas. Para soluções realmente novas, é preciso abandonar a ideia de que IA deve apenas responder e garantir que tenha espaço para explorar, experimentar e inovar. Somos nós humanos que precisamos indicar o caminho, a IA só quer aprender.

Milhões de pessoas ao redor do mundo já pediram às LLMs, como o ChatGPT, para fazerem descobertas científicas inovadoras ou resolverem paradoxos matemáticos que têm persistido por séculos. Invariavelmente, todos saem frustrados com as respostas vagas e sem inspiração dos algoritmos de linguagem.

Afinal, se são mesmo tão inteligentes, capazes de criar poesias renascentistas sobre o iPhone, ou escrever um episódio de Chaves no estilo de Kant, por que fracassam ao tentar gerar conhecimento realmente novo?

Questão depende do tipo de treinamento que a IA recebe Foto: Sergio Barzaghi /Estadão

A resposta, em grande parte, está no seu treinamento. Modelos de inteligência artificial (IA) não fazem descobertas porque são projetados para interpolar, não extrapolar. Eles ajustam padrões a partir de dados históricos, mas não conseguem romper com esses padrões.

Uma parte importante do treinamento das atuais LLMs é o ajuste-fino supervisionado, em que conjuntos de perguntas e respostas são inseridos nos algoritmos para aprenderem como humanos gostam de receber informações. Isso os torna altamente eficazes na geração de textos coerentes para o usuário médio, mas os aprisiona em um ciclo de previsibilidade.

A ciência, por outro lado, exige imaginação e a coragem de errar. A genialidade nem sempre anda de mãos dadas com a simpatia e a polidez, como qualquer biógrafo de grandes mentes pode confirmar.

A solução virá de abordagens que permitam mais exploração e menos reprodução de padrões existentes. Treinamentos baseados em aprendizado por reforço, onde a IA recebe recompensas de acordo com as suas descobertas, permitirão que modelos explorem caminhos mais inovadores. Além disso, permitir mais tempo de inferência para a geração de hipóteses no momento da resposta pode torná-la mais criativa dentro dos limites do rigor científico.

O caso AlphaFold mostra que isso é possível. Treinado para predizer estruturas de proteína, o algoritmo não se limitou a organizar conhecimento prévio nem a otimizar interações humanas, mas gerou novas soluções, ajudando a desvendar estruturas antes desconhecidas e levando seus criadores a ganhar o Prêmio Nobel em 2024.

A cura do câncer provavelmente não virá de um chatbot como o ChatGPT que temos hoje, mas de modelos que aprendam como cientistas. Para soluções realmente novas, é preciso abandonar a ideia de que IA deve apenas responder e garantir que tenha espaço para explorar, experimentar e inovar. Somos nós humanos que precisamos indicar o caminho, a IA só quer aprender.

Milhões de pessoas ao redor do mundo já pediram às LLMs, como o ChatGPT, para fazerem descobertas científicas inovadoras ou resolverem paradoxos matemáticos que têm persistido por séculos. Invariavelmente, todos saem frustrados com as respostas vagas e sem inspiração dos algoritmos de linguagem.

Afinal, se são mesmo tão inteligentes, capazes de criar poesias renascentistas sobre o iPhone, ou escrever um episódio de Chaves no estilo de Kant, por que fracassam ao tentar gerar conhecimento realmente novo?

Questão depende do tipo de treinamento que a IA recebe Foto: Sergio Barzaghi /Estadão

A resposta, em grande parte, está no seu treinamento. Modelos de inteligência artificial (IA) não fazem descobertas porque são projetados para interpolar, não extrapolar. Eles ajustam padrões a partir de dados históricos, mas não conseguem romper com esses padrões.

Uma parte importante do treinamento das atuais LLMs é o ajuste-fino supervisionado, em que conjuntos de perguntas e respostas são inseridos nos algoritmos para aprenderem como humanos gostam de receber informações. Isso os torna altamente eficazes na geração de textos coerentes para o usuário médio, mas os aprisiona em um ciclo de previsibilidade.

A ciência, por outro lado, exige imaginação e a coragem de errar. A genialidade nem sempre anda de mãos dadas com a simpatia e a polidez, como qualquer biógrafo de grandes mentes pode confirmar.

A solução virá de abordagens que permitam mais exploração e menos reprodução de padrões existentes. Treinamentos baseados em aprendizado por reforço, onde a IA recebe recompensas de acordo com as suas descobertas, permitirão que modelos explorem caminhos mais inovadores. Além disso, permitir mais tempo de inferência para a geração de hipóteses no momento da resposta pode torná-la mais criativa dentro dos limites do rigor científico.

O caso AlphaFold mostra que isso é possível. Treinado para predizer estruturas de proteína, o algoritmo não se limitou a organizar conhecimento prévio nem a otimizar interações humanas, mas gerou novas soluções, ajudando a desvendar estruturas antes desconhecidas e levando seus criadores a ganhar o Prêmio Nobel em 2024.

A cura do câncer provavelmente não virá de um chatbot como o ChatGPT que temos hoje, mas de modelos que aprendam como cientistas. Para soluções realmente novas, é preciso abandonar a ideia de que IA deve apenas responder e garantir que tenha espaço para explorar, experimentar e inovar. Somos nós humanos que precisamos indicar o caminho, a IA só quer aprender.

Loading
Opinião por Alexandre Chiavegatto Filho

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP