Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista chefe da Meta

Yann LeCun criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana

PUBLICIDADE

Foto do author Bruna Arimathea

LAS VEGAS - Dois dos maiores nomes da inteligência artificial (IA) da atualidade estão em desacordo sobre o que poderá ser a próxima evolução na tecnologia. Em um evento nesta quarta-feira, 8, durante a Consumer Electronics Show (CES) 2025, Yann LeCun, cientista chefe de IA da Meta, afirmou que não teremos uma inteligência artificial geral (AGI, na sigla em inglês), em um futuro próximo e que afirmação de Sam Altman, CEO da OpenAI, de que já sabe como construir tecnologia é “loucura”.

No início da semana, Sam Altman escreveu em seu blog pessoal que a OpenAI já teria o conhecimento necessário para construir uma AGI dentro da empresa. AGI é um tipo de inteligência artificial que pode ultrapassar a capacidade do cérebro humano. De acordo com Altman, ainda em 2025 será possível ver agentes de IA “se juntarem à força de trabalho” e se tornar uma ferramenta semelhante a uma AGI.

Yann LeCun, cientista chefe de IA da Meta, falou sobre IA e regulação em evento da CES 2025 Foto: CES/Reprodução

PUBLICIDADE

LeCun, no entanto, criticou a postura do dono do ChatGPT, afirmando que a definição de AGI pode variar de acordo, mas que igualar o conceito a, simplesmente, alcançar o nível de inteligência humano é muito simplório.

“Acho que é uma definição terrível”, explicou o cientista. “Antes de mais nada, isso depende. O que você quer dizer com AGI? Sinceramente, não gosto da expressão porque as pessoas a usam essencialmente para designar uma inteligência que está no nível da inteligência humana, e a inteligência humana é muito especializada. Achamos que temos uma inteligência geral, mas não temos, somos superespecializados, portanto, a frase sobre AGI (de Altman), na minha opinião, é loucura”.

Publicidade

Isso porque o cientista acredita que a capacidade de uma IA de superar o conhecimento humano em algumas tarefas, como ser aprovado em uma prova de faculdade ou alcançar notas máximas em testes de conhecimento, não é a mesma coisa que atingir um nível humano de inteligência - uma tarefa que, segundo ele, é muito mais complexa do que apenas trabalhar com lógica e raciocínio.

“É como se todo mundo criasse referências para a inteligência de nível humano e dissesse, por exemplo, que se você tivesse conseguido essa referência, teria alcançado a inteligência de nível humano. As pessoas estão cometendo os mesmos erros há 70 anos”, afirmou na conversa.

O chefe de IA da Meta também acredita que a regulação da inteligência artificial deve ser aplicada apenas na camada de aplicação da tecnologia e não no desenvolvimento dos modelos. A empresa de Mark Zuckerberg é dona de um dos modelos mais famosos do setor, o Llama, um código aberto que alimenta diversos aplicativos de IA. Para LeCun, regular o processo de pesquisa e desenvolvimento dessas ferramentas é um risco para a autonomia de criação das empresas. O cientista não comentou o novo posicionamento da gigante em relação à moderação de conteúdo.

“Como isso pode ser feito? Como isso faz sentido? O risco de regulamentar pesquisa e desenvolvimento é que você dirá à comunidade que está assumindo um risco de responsabilidade. Ao liberar a modelagem e a fonte, que empresas não correrão esse risco?”, questionou o cientista. “Se houver algum tipo de responsabilidade em cascata será como (autorizar) processar a empresa porque alguém em algum lugar do mundo usou alguma personalização para fazer algo ruim”.

Publicidade

*A repórter viajou a convite da Consumer Technology Association (CTA), organizadora da CES

Comentários

Os comentários são exclusivos para assinantes do Estadão.