Q*: ‘Super IA’ pode significar avanço, mas está longe de ameaçar humanidade, dizem especialistas

Ferramenta em desenvolvimento pela OpenAI tem potencial de mudar a inteligência das máquinas, mas não é tão poderosa assim

PUBLICIDADE

Foto do author Guilherme Guerra

Supostamente uma inteligência artificial “poderosa” e que “ameaça a humanidade” está em desenvolvimento na OpenAI, a startup americana que criou o ChatGPT, segundo carta escrita por pesquisadores da empresa e vista pela agência de notícia Reuters nesta semana. Para especialistas consultados pelo Estadão, no entanto, essa não é uma ameaça iminente, pois ainda há um longo caminho para que a tecnologia atinja um estágio que represente ameaça - pelo menos com as informações disponíveis no momento.

PUBLICIDADE

O desenvolvimento desse sistema teria sido um dos motivos, diz a Reuters, que podem ter levado à expulsão do fundador e presidente executivo da OpenAI, Sam Altman. Cinco dias depois, após negociações e a pressão da Microsoft, o CEO foi readmitido ao cargo, com um novo conselho de diretores no comando da companhia.

Chamado de Q* (Q-Star, em inglês, ou Q-Estrela, em tradução livre), esse sistema superinteligente seria considerado um marco interno dentro da startup americana. Há anos, a OpenAI afirma abertamente que busca desenvolver a chamada “inteligência artificial geral” (AGI, na sigla em inglês), que seria capaz de realizar as mesmas tarefas que um cérebro humano.

O marco acontece porque o Q* seria capaz de solucionar equações matemáticas de nível escolar, usando a tecnologia de modelos amplos de linguagem (LLM, na sigla em inglês) — mesma utilizada no ChatGPT e que permite fluidez na escrita. Até aqui, esses sistemas não são capazes de resolver problemas de lógica, pois não foram desenvolvidos para isso.

Estamos longe do sonho de uma AGI

Fabio Cozman, professor da Poli-USP

Sam Altman sempre falou sobre o desejo de desenvolver uma AGI responsável e ética, afirmando diversas vezes em entrevistas e conferências que esse é o objetivo final da OpenAI. Bastidores revelados pela imprensa americana apontaram que, entre as divergências entre o conselho e o CEO da OpenAI, estariam o medo de um avanço irresponsável da IA.

Publicidade

FILE PHOTO: OpenAI logo is seen in this illustration taken, February 3, 2023. REUTERS/Dado Ruvic/Illustration/File Photo Foto: Dado Ruvic/Reuters - 3/2/2023

Q* pode ser um passo na direção de uma AGI

Apesar do esforço da OpenAI, a ideia de uma AGI que pode representar ameaça à vida humana com sua superinteligência ainda é papo de ficção-científica, disseram à reportagem três especialistas do campo da inteligência artificial no Brasil.

“Esse é um passo na direção de uma IA mais próxima das capacidades humanas, mas ainda está longe do sonho de uma AGI. Estamos longe”, diz o pesquisador Fabio Cozman, professor na Escola Politécnica de São Paulo (Poli-USP) e diretor do Centro de Inteligência Artificial pela universidade paulista.

Para ele, o potencial revolucionário do Q* está em unificar o poder de resolução matemática já visto em outros sistemas de IA (como modelos probabilísticos), mas aplicado à tecnologia de fluidez de texto dos LLMs, que incluem o ChatGPT, o Bard (do Google) e o Claude (da startup Anthropic).

Google lançou o chatbot Bard para competir com o ChatGPT Foto: Google via The New York Times

“Esses modelos de linguagem, em particular o GPT, não conseguem garantir que tudo o que falam é logicamente correto”, explica, citando que o material coletado desses chatbots vem de textos tirados da internet. A partir daí, o conteúdo é gerado por probabilidade, com o sistema “adivinhando” qual deve ser a palavra a ser escrita. “Se essa união for atingida, é uma vitória muito grande para a tecnologia.”

Para o engenheiro André Filipe Batista, pesquisador na Universidade de São Paulo (USP) e professor do Insper, o Q* pode ser um passo rumo à AGI. Segundo ele, essa IA deve nascer cumprindo pequenas tarefas que vão ampliando sua capacidade cognitiva até chegar a um propósito geral, de superinteligência equivalente ou superior à humana. “É uma escada de evolução para uma AGI. E eu enxergo como natural esse caminho para empresas como OpenAI”, diz.

Publicidade

AGI é ficção-científica no momento

Fernando Osório, professor da USP

O problema dos avanços rumo à AGI está nas discussões éticas incipientes sobre o tema, critica Batista, para quem há poucas informações sobre os sistemas de IA desenvolvidos pelas empresas. O engenheiro recomenda que essas companhias desenvolvam uma “bula”, similar à indústria farmacêutica, para apresentar riscos e eficácias de cada um dos modelos de IA à disposição.

“Qual é a precisão da inteligência artificial desenvolvida? Como se comporta diante de grupos vulneráveis? A quem serve? Foi testada em que cenário? Quem deveria ser o usuário-alvo? Qual situação deveria ser evitada?”, questiona Batista. “Quando tivermos a capacidade de escrevermos a capacidade de uma IA como se fosse a bula de remédio, a ponto de que a sociedade entenda o que e para que serve a ferramenta, aí vou conseguir dizer que caminhamos para uma discussão ética da IA.”

Anthropic nasceu em 2021 a partir de ex-funcionários da OpenAI, maior rival da startup Foto: Dado Ruvic/Reuters

PUBLICIDADE

AGI é ‘ficção-científica’

Para o professor Fernando Osório, pesquisador na Universidde de São Paulo (USP) em São Carlos, a busca por uma AGI é um conceito teórico, ainda sem aplicação prática. “Ou seja, é ficção-científica no momento”, diz ele. “Essa tecnologia não deve ser possível de ser alcançada nos próximos anos, não importa a tecnologia A, B, C ou Q* que venham dizer que é mágica”.

Ainda assim, o Q* pode representar um avanço no campo das “inteligências artificiais limitadas”, isto é, que têm propósito estabelecido e não cumprem outras funções além daquelas já programadas na ferramenta — como o ChatGPT, geradores de imagens e outros. “Esses desenvolvimentos são interessantes e trazem novas possibilidades, mas não estão nem perto do que é definido como AGI e superinteligência”, aponta.

Comentários

Os comentários são exclusivos para assinantes do Estadão.