PUBLICIDADE

EXCLUSIVO PARA ASSINANTES
Foto do(a) coluna

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Opinião|O novo algoritmo da OpenAI está mesmo pensando? Tudo depende da definição

A chegada do OpenAI o1 traz novas reflexões sobre o raciocínio humano

PUBLICIDADE

Foto do author Alexandre  Chiavegatto Filho

Na semana passada, a OpenAI lançou seu novo algoritmo, o OpenAI o1, que rapidamente assumiu o posto de melhor modelo de inteligência artificial (IA) nos desafios de matemática e programação. De acordo com o comunicado oficial da empresa, o diferencial desse modelo é a sua capacidade de raciocínio, que inclui o uso da estratégia de chain of thought (cadeia de pensamento).

Em vez de apenas predizer a próxima palavra em uma sequência, o novo modelo da OpenAI agora testa uma série de passos intermediários antes da tomada de decisão, simulando um raciocínio mais estruturado, parecido ao que nós humanos usamos para resolver problemas complexos.

OpeanAi o1 é a nova aposta da empresa Foto: lilgrapher/Adobe Stock

PUBLICIDADE

Isso permite ao OpenAI o1 construir uma resposta mais elaborada e coerente. É como se o modelo passasse por um processo interno de reflexão antes de chegar à resposta final. Estudos recentes têm demonstrado que essa estratégia é especialmente útil em problemas de matemática, programação e em desafios que requerem lógica avançada.

Ao fazer uma pergunta ao novo algoritmo, a interface do ChatGPT agora leva alguns segundos para responder, alternando suas mensagens entre “pensando” e “desenvolvendo o raciocínio”. Mas será que o algoritmo está mesmo pensando?

O que o OpenAI o1 está fazendo é otimizar o caminho que leva à resposta correta utilizando padrões probabilísticos, não por meio de uma compreensão profunda da tarefa. Em outras palavras, ele opera em um nível estatístico, avaliando a sequência de passos que maximiza as suas chances de escolher a melhor resposta.

Publicidade

Mas será que nós humanos não fazemos algo parecido quando pensamos? Ao resolvermos problemas difíceis de lógica ou de matemática, muitas vezes seguimos passos pré-determinados ou padrões aprendidos. Será que aquilo que conhecemos como introspecção, consciência ou subjetividade, não é também um cálculo probabilístico feito de maneira intuitiva?

A fronteira entre o raciocínio humano e o desempenho de um algoritmo é mais tênue do que gostaríamos de aceitar. Ambos seguem padrões, e usam sua experiência no assunto para buscar soluções eficientes. A diferença pode estar apenas na nossa percepção de um propósito, na sensação subjetiva de existir algo além do cálculo racional.

No fim, a verdadeira questão não é se o algoritmo está pensando, mas se nós compreendemos o que significa pensar. Talvez a inovação do OpenAI o1 esteja em nos forçar a reavaliar nossa cognição: será que somos tão únicos quanto acreditamos, ou apenas uma manifestação sofisticada de algoritmos biológicos, operando em um nível que ainda não compreendemos? O futuro da verdadeira inteligência, seja ela artificial ou humana, pode depender dessa resposta.

Opinião por Alexandre Chiavegatto Filho

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Comentários

Os comentários são exclusivos para assinantes do Estadão.