Supostamente uma inteligência artificial “poderosa” e que “ameaça a humanidade” está em desenvolvimento na OpenAI, a startup americana que criou o ChatGPT, segundo carta escrita por pesquisadores da empresa e vista pela agência de notícia Reuters nesta semana. Para especialistas consultados pelo Estadão, no entanto, essa não é uma ameaça iminente, pois ainda há um longo caminho para que a tecnologia atinja um estágio que represente ameaça - pelo menos com as informações disponíveis no momento.
O desenvolvimento desse sistema teria sido um dos motivos, diz a Reuters, que podem ter levado à expulsão do fundador e presidente executivo da OpenAI, Sam Altman. Cinco dias depois, após negociações e a pressão da Microsoft, o CEO foi readmitido ao cargo, com um novo conselho de diretores no comando da companhia.
Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema superinteligente seria considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.
O marco acontece porque o Q* seria capaz de solucionar equações matemáticas de nível escolar, usando a tecnologia de modelos amplos de linguagem (LLM, na sigla em inglês) — mesma utilizada no ChatGPT e que permite fluidez na escrita. Até aqui, esses sistemas não são capazes de resolver problemas de lógica, pois não foram desenvolvidos para isso.
Estamos longe do sonho de uma AGI
Fabio Cozman, professor da Poli-USP
Sam Altman sempre falou sobre o desejo de desenvolver uma AGI responsável e ética, afirmando diversas vezes em entrevistas e conferências que esse é o objetivo final da OpenAI. Bastidores revelados pela imprensa americana apontaram que, entre as divergências entre o conselho e o CEO da OpenAI, estariam o medo de um avanço irresponsável da IA.
Q* pode ser um passo na direção de uma AGI
Apesar do esforço da OpenAI, a ideia de uma AGI que pode representar ameaça à vida humana com sua superinteligência ainda é papo de ficção-científica, disseram à reportagem três especialistas do campo da inteligência artificial no Brasil.
“Esse é um passo na direção de uma IA mais próxima das capacidades humanas, mas ainda está longe do sonho de uma AGI. Estamos longe”, diz o pesquisador Fabio Cozman, professor na Escola Politécnica de São Paulo (Poli-USP) e diretor do Centro de Inteligência Artificial pela universidade paulista.
Para ele, o potencial revolucionário do Q* está em unificar o poder de resolução matemática já visto em outros sistemas de IA (como modelos probabilísticos), mas aplicado à tecnologia de fluidez de texto dos LLMs, que incluem o ChatGPT, o Bard (do Google) e o Claude (da startup Anthropic).
“Esses modelos de linguagem, em particular o GPT, não conseguem garantir que tudo o que falam é logicamente correto”, explica, citando que o material coletado desses chatbots vem de textos tirados da internet. A partir daí, o conteúdo é gerado por probabilidade, com o sistema “adivinhando” qual deve ser a palavra a ser escrita. “Se essa união for atingida, é uma vitória muito grande para a tecnologia.”
Para o engenheiro André Filipe Batista, pesquisador na Universidade de São Paulo (USP) e professor do Insper, o Q* pode ser um passo rumo à AGI. Segundo ele, essa IA deve nascer cumprindo pequenas tarefas que vão ampliando sua capacidade cognitiva até chegar a um propósito geral, de superinteligência equivalente ou superior à humana. “É uma escada de evolução para uma AGI. E eu enxergo como natural esse caminho para empresas como OpenAI”, diz.
AGI é ficção-científica no momento
Fernando Osório, professor da USP
O problema dos avanços rumo à AGI está nas discussões éticas incipientes sobre o tema, critica Batista, para quem há poucas informações sobre os sistemas de IA desenvolvidos pelas empresas. O engenheiro recomenda que essas companhias desenvolvam uma “bula”, similar à indústria farmacêutica, para apresentar riscos e eficácias de cada um dos modelos de IA à disposição.
“Qual é a precisão da inteligência artificial desenvolvida? Como se comporta diante de grupos vulneráveis? A quem serve? Foi testada em que cenário? Quem deveria ser o usuário-alvo? Qual situação deveria ser evitada?”, questiona Batista. “Quando tivermos a capacidade de escrevermos a capacidade de uma IA como se fosse a bula de remédio, a ponto de que a sociedade entenda o que e para que serve a ferramenta, aí vou conseguir dizer que caminhamos para uma discussão ética da IA.”
AGI é ‘ficção-científica’
Para o professor Fernando Osório, pesquisador na Universidde de São Paulo (USP) em São Carlos, a busca por uma AGI é um conceito teórico, ainda sem aplicação prática. “Ou seja, é ficção-científica no momento”, diz ele. “Essa tecnologia não deve ser possível de ser alcançada nos próximos anos, não importa a tecnologia A, B, C ou Q* que venham dizer que é mágica”.
Ainda assim, o Q* pode representar um avanço no campo das “inteligências artificiais limitadas”, isto é, que têm propósito estabelecido e não cumprem outras funções além daquelas já programadas na ferramenta — como o ChatGPT, geradores de imagens e outros. “Esses desenvolvimentos são interessantes e trazem novas possibilidades, mas não estão nem perto do que é definido como AGI e superinteligência”, aponta.
Os comentários são exclusivos para assinantes do Estadão.