O ano é 2027. Poderosos sistemas de inteligência artificial (IA) estão se tornando mais inteligentes que os humanos e estão causando estragos na ordem global. Espiões chineses roubaram os segredos de IA dos Estados Unidos, e a Casa Branca está correndo para retaliar. Em um dos principais laboratórios de IA, os engenheiros ficam assustados ao descobrir que seus modelos estão começando a enganá-los, o que aumenta a possibilidade de se tornarem desonestos.
Essas não são cenas de um roteiro de ficção científica. São cenários imaginados por uma organização sem fins lucrativos de Berkeley, Califórnia, chamada AI Futures Project, que passou o último ano tentando prever como será o mundo nos próximos anos, à medida que sistemas de IA cada vez mais poderosos forem desenvolvidos.

O projeto é liderado por Daniel Kokotajlo, um ex-pesquisador da OpenAI que deixou a empresa no ano passado por estar preocupado com o fato de ela estar agindo de forma imprudente.
Enquanto esteve na OpenAI, onde fazia parte da equipe de governança, Kokotajlo escreveu relatórios internos detalhados sobre como a corrida pela inteligência artificial geral, ou AGI - um termo difuso para inteligência de máquina de nível humano - poderia se desenvolver. Depois de sair, ele se juntou a Eli Lifland, um pesquisador de IA que tinha um histórico de previsão precisa de eventos mundiais. Eles começaram a trabalhar para tentar prever a próxima onda de IA.
O resultado é “AI 2027″, um relatório e um site lançados esta semana que descrevem, em um cenário fictício detalhado, o que poderia acontecer se os sistemas de IA ultrapassassem a inteligência humana - o que os autores esperam que aconteça nos próximos dois ou três anos.
“Prevemos que as IA continuarão a melhorar a ponto de se tornarem agentes totalmente autônomos e melhores que os humanos em tudo até o final de 2027″, disse Kokotajlo em uma entrevista recente.
Atualmente, não faltam especulações sobre IA. São Francisco foi tomada pelo fervor da IA, e o cenário tecnológico da Bay Area se tornou um conjunto de tribos em guerra e seitas dissidentes, cada uma delas convencida de que sabe como o futuro se desenrolará.
Algumas previsões de IA assumiram a forma de um manifesto, como “Machines of Loving Grace” (Máquinas de Graça Amorosa), um ensaio de 14 mil palavras escrito no ano passado por Dario Amodei, CEO da Anthropic, ou “Situational Awareness” (Consciência Situacional), um relatório do ex-pesquisador da OpenAI, Leopold Aschenbrenner, que foi amplamente lido nos círculos políticos.
O pessoal do AI Futures Project elaborou o seu como um cenário de previsão - essencialmente, uma peça de ficção científica rigorosamente pesquisada que usa seus melhores palpites sobre o futuro como pontos de enredo. O grupo passou quase um ano aprimorando centenas de previsões sobre a I.A. Em seguida, contrataram um escritor - Scott Alexander, que escreve o blog Astral Codex Ten - para ajudar a transformar a previsão em uma narrativa.
“Pegamos o que achávamos que aconteceria e tentamos torná-lo envolvente”, disse Lifland.
Os críticos dessa abordagem podem argumentar que as histórias fictícias de IA são melhores para assustar as pessoas do que para educá-las. E alguns especialistas em IA, sem dúvida, se oporão à afirmação central do grupo de que a inteligência artificial ultrapassará a inteligência humana.
Ali Farhadi, CEO do Allen Institute for Artificial Intelligence, um laboratório de IA, em Seattle, analisou o relatório “AI 2027″ e disse que não ficou impressionado.
“Sou totalmente a favor de projeções e previsões, mas essa previsão não parece estar fundamentada em evidências científicas ou na realidade de como as coisas estão evoluindo na IA”, disse ele.
Não há dúvida de que alguns dos pontos de vista do grupo são extremos. Kokotajlo, por exemplo, me disse no ano passado que acreditava que havia 70% de chance dA IA destruir ou prejudicar catastroficamente a humanidade. E tanto Kokotajlo quanto, Lifland têm vínculos com o Altruísmo Efetivo, outro movimento filosófico popular entre os trabalhadores da área de tecnologia que há anos vem fazendo alertas terríveis sobre a IA.
Mas também vale a pena observar que algumas das maiores empresas do Vale do Silício estão planejando um mundo além da AGI, e que muitas das previsões aparentemente malucas feitas sobre IA no passado - como a visão de que as máquinas passariam no Teste de Turing, um experimento mental que determina se uma máquina pode parecer se comunicar como um ser humano - se tornaram realidade.
Em 2021, um ano antes do lançamento do ChatGPT, Kokotajlo escreveu uma postagem no blog intitulada “What 2026 Looks Like” (Como será 2026), descrevendo sua visão sobre o progresso dos sistemas de IA. Várias de suas previsões se mostraram prescientes, e ele se convenceu de que esse tipo de previsão era valioso e que ele era bom nisso.
“É uma maneira elegante e conveniente de comunicar sua opinião a outras pessoas”, disse ele.
Na semana passada, Kokotajlo e Lifland me convidaram para ir ao escritório deles - uma pequena sala em um espaço de trabalho conjunto em Berkeley chamado Constellation, onde várias organizações de segurança de IA estão instaladas - para me mostrar como eles trabalham.
Kokotajlo, vestindo uma jaqueta marrom de estilo militar, pegou um marcador e escreveu quatro abreviações em um grande quadro branco: SC > SAR > SIAR > ASI. Cada uma delas, explicou ele, representava um marco no desenvolvimento da IA.
Primeiro, disse ele, em algum momento no início de 2027, se as tendências atuais se mantiverem, a IA será um programador sobre-humano. Em seguida, em meados de 2027, será um pesquisador de IA sobre-humano - um agente autônomo que pode supervisionar equipes de programadores de IA e fazer novas descobertas. Em seguida, no final de 2027 ou início de 2028, ele se tornará um pesquisador de IA superinteligente - uma inteligência de máquina que sabe mais do que nós sobre a criação de IA avançada e pode automatizar sua própria pesquisa e desenvolvimento, essencialmente criando versões mais inteligentes de si mesma. A partir daí, disse ele, é um pulo curto até a superinteligência artificial, ou ASI, quando todas as apostas estarão canceladas.
Se tudo isso parece fantástico... bem, é. Nada remotamente parecido com o que Kokotajlo e Lifland estão prevendo é possível com as ferramentas de IA atuais, que mal conseguem pedir um burrito no delivery sem ficarem presas.
Mas eles estão confiantes de que esses pontos cegos diminuirão rapidamente, à medida que os sistemas de IA se tornarem bons o suficiente em codificação para acelerar a pesquisa e o desenvolvimento da IA.
Seu relatório se concentra na OpenBrain, uma empresa fictícia de IA que desenvolve um poderoso sistema de IA conhecido como Agent-1. Eles decidiram não destacar uma empresa de IA específica e, em vez disso, criaram um composto dos principais laboratórios de IA americanos.
À medida que o Agent-1 se aprimora na codificação, ele começa a automatizar grande parte do trabalho de engenharia na OpenBrain, o que permite que a empresa avance mais rapidamente e ajuda a desenvolver o Agent-2, um pesquisador de IA ainda mais capaz. No final de 2027, quando o cenário termina, o Agent-4 está fazendo um ano de descobertas em pesquisa de IA por semana e ameaça se tornar rebelde.
Perguntei a Kokotajlo o que ele achava que aconteceria depois disso. Ele achava, por exemplo, que a vida no ano de 2030 ainda seria reconhecível? As ruas de Berkeley estariam cheias de robôs humanoides? Pessoas enviando mensagens de texto para suas namoradas de IA? Algum de nós teria emprego?
Ele olhou pela janela e admitiu que não tinha certeza. Se os próximos anos corressem bem e mantivéssemos a IA sob controle, disse ele, poderia imaginar um futuro em que a vida da maioria das pessoas ainda seria praticamente a mesma, mas em que “zonas econômicas especiais” próximas, repletas de fábricas de robôs hipereficientes, produziriam tudo o que precisássemos.
Leia também
E se os próximos anos não fossem bem-sucedidos?
“Talvez o céu ficasse cheio de poluição e as pessoas morressem?”, disse ele despreocupadamente. “Algo assim.”
Um risco de dramatizar suas previsões de IA dessa forma é que, se você não for cuidadoso, os cenários medidos podem se transformar em fantasias apocalípticas. Outro é que, ao tentar contar uma história dramática que prenda a atenção das pessoas, você corre o risco de perder resultados mais enfadonhos, como o cenário em que a IA geralmente se comporta bem e não causa muitos problemas para ninguém.
Embora eu concorde com os autores de “AI 2027″ que sistemas poderosos de IA estão por vir, não estou convencido de que os programadores de IA sobre-humanos adquirirão automaticamente as outras habilidades necessárias para abrir caminho para a inteligência geral. E desconfio de previsões que presumem que o progresso da IA será suave e exponencial, sem grandes gargalos ou bloqueios ao longo do caminho.
Mas acho que vale a pena fazer esse tipo de previsão, mesmo que eu discorde de algumas das previsões específicas. Se a poderosa IA estiver realmente próxima, todos nós precisaremos começar a imaginar alguns futuros muito estranhos.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.