EXCLUSIVO PARA ASSINANTES

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Opinião | Por que a IA ainda não descobriu a cura para o câncer? Problema pode estar no treinamento

Modelos treinados para responder humanos têm dificuldade em inovar

PUBLICIDADE

Foto do author Alexandre  Chiavegatto Filho

Milhões de pessoas ao redor do mundo já pediram às LLMs, como o ChatGPT, para fazerem descobertas científicas inovadoras ou resolverem paradoxos matemáticos que têm persistido por séculos. Invariavelmente, todos saem frustrados com as respostas vagas e sem inspiração dos algoritmos de linguagem.

Afinal, se são mesmo tão inteligentes, capazes de criar poesias renascentistas sobre o iPhone, ou escrever um episódio de Chaves no estilo de Kant, por que fracassam ao tentar gerar conhecimento realmente novo?

Questão depende do tipo de treinamento que a IA recebe Foto: Sergio Barzaghi /Estadão

PUBLICIDADE

A resposta, em grande parte, está no seu treinamento. Modelos de inteligência artificial (IA) não fazem descobertas porque são projetados para interpolar, não extrapolar. Eles ajustam padrões a partir de dados históricos, mas não conseguem romper com esses padrões.

Uma parte importante do treinamento das atuais LLMs é o ajuste-fino supervisionado, em que conjuntos de perguntas e respostas são inseridos nos algoritmos para aprenderem como humanos gostam de receber informações. Isso os torna altamente eficazes na geração de textos coerentes para o usuário médio, mas os aprisiona em um ciclo de previsibilidade.

A ciência, por outro lado, exige imaginação e a coragem de errar. A genialidade nem sempre anda de mãos dadas com a simpatia e a polidez, como qualquer biógrafo de grandes mentes pode confirmar.

Publicidade

A solução virá de abordagens que permitam mais exploração e menos reprodução de padrões existentes. Treinamentos baseados em aprendizado por reforço, onde a IA recebe recompensas de acordo com as suas descobertas, permitirão que modelos explorem caminhos mais inovadores. Além disso, permitir mais tempo de inferência para a geração de hipóteses no momento da resposta pode torná-la mais criativa dentro dos limites do rigor científico.

O caso AlphaFold mostra que isso é possível. Treinado para predizer estruturas de proteína, o algoritmo não se limitou a organizar conhecimento prévio nem a otimizar interações humanas, mas gerou novas soluções, ajudando a desvendar estruturas antes desconhecidas e levando seus criadores a ganhar o Prêmio Nobel em 2024.

A cura do câncer provavelmente não virá de um chatbot como o ChatGPT que temos hoje, mas de modelos que aprendam como cientistas. Para soluções realmente novas, é preciso abandonar a ideia de que IA deve apenas responder e garantir que tenha espaço para explorar, experimentar e inovar. Somos nós humanos que precisamos indicar o caminho, a IA só quer aprender.

Opinião por Alexandre Chiavegatto Filho

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Comentários

Os comentários são exclusivos para cadastrados.