Empresas de tecnologia apostam em super-inteligência artificial, mas conceito entra em disputa

Cientistas não conseguem chegar a uma definição do que seria uma máquina com capacidade de aprendizado superior a humanos

PUBLICIDADE

Foto do author Redação
Por Redação

ASSOCIATED PRESS - Há uma corrida em andamento para desenvolver a inteligência geral artificial (AGI, na sigla em inglês), uma visão futurista de máquinas que são tão inteligentes quanto os humanos ou que, pelo menos, podem fazer muitas coisas tão bem quanto as pessoas.

PUBLICIDADE

Alcançar esse conceito (comumente chamado de AGI) é a missão principal da OpenAI, criadora do ChatGPT, e uma prioridade para as alas de pesquisa de elite das gigantes da tecnologia Amazon, Google, Meta e Microsoft.

Também é motivo de preocupação para os governos mundiais. Os principais cientistas de IA publicaram uma pesquisa na quinta-feira 4 na revista Science em que alertam que agentes de IA não controlados com habilidades de “planejamento de longo prazo” podem representar um risco existencial para a humanidade.

Mas o que exatamente é AGI e como saberemos quando ela foi alcançada? Antes à margem da ciência da computação, agora é uma palavra da moda que está sendo constantemente redefinida por aqueles que tentam torná-la realidade.

Publicidade

O que é AGI?

Não deve ser confundida com a IA generativa, que tem um som semelhante e descreve os sistemas de IA por trás da safra de ferramentas que “geram” novos documentos, imagens e sons, a inteligência geral artificial é uma ideia mais nebulosa.

Não é um termo técnico, mas “um conceito sério, embora mal definido”, disse Geoffrey Hinton, um cientista pioneiro em IA que foi apelidado de “padrinho da IA”.

Inteligência artificial geral é um conceito sério, mas mal definido

Geoffrey Hinton, cientista pioneiro da IA

“Não creio que haja consenso sobre o significado do termo”, disse Hinton por e-mail esta semana. “Eu o uso para designar uma IA que seja pelo menos tão boa quanto os humanos em quase todas as coisas cognitivas que os humanos fazem.”

Hinton prefere um termo diferente (superinteligência) “para AGIs que são melhores que os humanos”.

Publicidade

Um pequeno grupo de defensores iniciais do termo AGI estava tentando evocar a forma como os cientistas da computação de meados do século XX imaginavam uma máquina inteligente. Isso foi antes de a pesquisa de IA se ramificar em subcampos que avançaram em versões especializadas e comercialmente viáveis da tecnologia - desde o reconhecimento facial até assistentes de voz que reconhecem a fala, como Siri e Alexa.

A pesquisa convencional de IA “se afastou da visão original da inteligência artificial, que no início era bastante ambiciosa”, disse Pei Wang, professor que ministra um curso de AGI na Temple University e ajudou a organizar a primeira conferência de AGI em 2008.

Colocar o “G” em AGI foi um sinal para aqueles que “ainda querem fazer algo grandioso. Não queremos criar ferramentas. Queremos construir uma máquina pensante”, disse Wang.

Inteligência artificial vem recebendo investimentos das grandes empresas de tecnologia para ganhar habilidades superiores às humanas Foto: Dado Ruvic/Reuters - 19/2/2024

Já estamos na AGI?

Sem uma definição clara, é difícil saber quando uma empresa ou grupo de pesquisadores terá alcançado a inteligência geral artificial — ou se já a alcançou.

Publicidade

PUBLICIDADE

“Vinte anos atrás, acho que as pessoas teriam concordado que sistemas com a capacidade do GPT-4 ou do Gemini (do Google) haviam alcançado uma inteligência geral comparável à dos seres humanos”, disse Hinton. “Ser capaz de responder a mais ou menos qualquer pergunta de forma sensata teria passado no teste. Mas agora que a IA pode fazer isso, as pessoas querem mudar o teste.”

Os aprimoramentos nas técnicas de IA “autorregressiva” que preveem a próxima palavra mais plausível em uma sequência, combinados com um enorme poder de computação para treinar esses sistemas com uma grande quantidade de dados, resultaram em chatbots impressionantes, mas eles ainda não são exatamente a AGI que muitas pessoas tinham em mente. Para chegar à AGI, é necessário que a tecnologia tenha um desempenho tão bom quanto o dos humanos em uma ampla variedade de tarefas, incluindo raciocínio, planejamento e a capacidade de aprender com as experiências.

Cientista Geoffrey Hinton, ex-funcionário do Google, é considerado do 'padrinho da inteligência artificial' por pioneirismo na área Foto: Noah Berger/AP - 25/3/2015

Alguns pesquisadores gostariam de chegar a um consenso sobre como medir isso. Esse é um dos tópicos de um workshop de AGI a ser realizado no próximo mês em Viena, Áustria — o primeiro em uma grande conferência de pesquisa de IA.

“Isso realmente precisa do esforço e da atenção da comunidade para que possamos concordar mutuamente com algum tipo de classificação da AGI”, disse o organizador do workshop, Jiaxuan You, professor assistente da Universidade de Illinois Urbana-Champaign. Uma ideia é segmentá-la em níveis, da mesma forma que os fabricantes de automóveis tentam avaliar o caminho entre o controle de cruzeiro e os veículos totalmente autônomos.

Publicidade

Outros planejam descobrir isso por conta própria. A OpenAI, empresa de São Francisco, deu ao seu conselho de administração sem fins lucrativos - cujos membros incluem um ex-secretário do Tesouro dos EUA - a responsabilidade de decidir quando seus sistemas de IA atingiram o ponto em que “superam os humanos no trabalho de maior valor econômico”.

“O conselho determina quando atingimos a AGI”, diz a explicação da própria OpenAI sobre sua estrutura de governança. Essa conquista tiraria do maior parceiro da empresa, a Microsoft, os direitos de comercializar esse sistema, já que os termos de seus acordos “só se aplicam à tecnologia pré-AGI”.

A AGI é perigosa?

Hinton ganhou as manchetes mundiais no ano passado quando deixou o Google e fez um alerta sobre os perigos existenciais da IA. Um novo estudo da Science publicado na quinta-feira pode reforçar essas preocupações.

Publicidade

Seu principal autor é Michael Cohen, pesquisador da Universidade da Califórnia, em Berkeley, que estuda o “comportamento esperado de agentes artificiais geralmente inteligentes”, especialmente aqueles competentes o suficiente para “representar uma ameaça real para nós, planejando-nos melhor”.

Cohen deixou claro em uma entrevista na quinta-feira que esses agentes de planejamento de IA de longo prazo ainda não existem. Mas “eles têm o potencial” de se tornarem mais avançados à medida que as empresas de tecnologia procuram combinar a atual tecnologia de chatbot com habilidades de planejamento mais deliberadas usando uma técnica conhecida como aprendizado por reforço.

Espero que tenhamos defendido a ideia de que as pessoas no governo (precisam) começar a pensar seriamente sobre exatamente quais regulamentações são necessárias para resolver esse problema

Michael Cohen, pesquisador

“Dar a um sistema avançado de IA o objetivo de maximizar sua recompensa e, em algum momento, reter a recompensa, incentiva fortemente o sistema de IA a tirar os humanos do circuito, se tiver a oportunidade”, de acordo com o artigo cujos coautores incluem os proeminentes cientistas de IA Yoshua Bengio e Stuart Russell e a professora de direito e ex-conselheira da OpenAI Gillian Hadfield.

“Espero que tenhamos defendido a ideia de que as pessoas no governo (precisam) começar a pensar seriamente sobre exatamente quais regulamentações são necessárias para resolver esse problema”, disse Cohen. Por enquanto, “os governos só sabem o que essas empresas decidem lhes dizer”.

Publicidade

Legítimo demais para deixar a AGI?

Com tanto dinheiro investido na promessa de avanços da IA, não é de surpreender que a AGI também esteja se tornando um chavão corporativo que, às vezes, atrai um fervor quase religioso.

Isso dividiu parte do mundo da tecnologia entre aqueles que argumentam que ela deve ser desenvolvida lenta e cuidadosamente e outros - incluindo capitalistas de risco e o rapper MC Hammer - que se declararam parte de um campo “aceleracionista”.

A DeepMind, startup sediada em Londres, fundada em 2010 e que agora faz parte do Google, foi uma das primeiras empresas a se propor explicitamente a desenvolver a AGI. A OpenAI fez o mesmo em 2015, com um compromisso voltado para a segurança.

Mas agora pode parecer que todos os outros estão aderindo ao movimento. O cofundador do Google, Sergey Brin, foi visto recentemente em um local na Califórnia chamado AGI House. E menos de três anos depois de mudar seu nome do Facebook para se concentrar em mundos virtuais, a Meta revelou em janeiro que a AGI também estava no topo de sua agenda.

Publicidade

O CEO da Meta, Mark Zuckerberg, disse que a meta de longo prazo de sua empresa era “construir uma inteligência geral completa”, o que exigiria avanços em raciocínio, planejamento, codificação e outras habilidades cognitivas. Embora a empresa de Zuckerberg tenha pesquisadores focados nesses assuntos há muito tempo, sua atenção marcou uma mudança de tom.

Na Amazon, um sinal da nova mensagem foi quando o cientista-chefe da assistente de voz Alexa trocou de cargo para se tornar o cientista-chefe da AGI.

Embora não seja tão tangível para Wall Street quanto a IA generativa, a divulgação das ambições da AGI pode ajudar a recrutar talentos em IA que tenham a opção de escolher onde querem trabalhar.

Ao decidir entre um “instituto de IA da velha guarda” ou um instituto cuja “meta é desenvolver a AGI” e que tenha recursos suficientes para isso, muitos escolheriam o segundo, disse You, pesquisador da Universidade de Illinois.

Publicidade

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Comentários

Os comentários são exclusivos para assinantes do Estadão.