Na semana passada, foi realizado o NeurIPS (Neural Information Processing Systems), o principal congresso científico de inteligência artificial (IA). A palestra mais aguardada foi a de Ilya Sustskever, considerado um dos principais visionários da atual revolução de IA pelo seu trabalho com redes neurais profundas.
Apesar de breve, a palestra trouxe alguns insights como a ideia de que os dados seriam o combustível fóssil das LLMs, já que em breve devemos atingir o limite do uso de textos escritos por humanos disponíveis na internet para treinar os algoritmos, e quais seriam suas possíveis alternativas (provavelmente uma curadoria dos dados disponíveis mais com textos escritos pelos próprios algoritmos).
O principal impacto da palestra nos pesquisadores de machine learning, entretanto, foram as opiniões de Sustskever sobre a iminente chegada da superinteligência artificial. Ele mencionou que, à medida que as IAs avançam em suas capacidades cognitivas, sua imprevisibilidade se torna um fenômeno intrínseco.
Diferente de algoritmos determinísticos ou modelos mais simples, as arquiteturas mais recentes de redes neurais profundas, ao serem submetidas a tarefas complexas e raciocínios em camadas, geram comportamentos difíceis de antecipar, mesmo para os seus desenvolvedores. Sustskever argumentou que essa imprevisibilidade não é um “bug”, mas uma consequência natural do aumento da sua autonomia e raciocínio sistêmico.
Um algoritmo que consiga ganhar do campeão mundial de xadrez, por exemplo, não pode ser previsível pela análise das suas jogadas anteriores. Ele não apenas calcula, mas encontra soluções que parecem surgir de uma lógica nova, que vai além do escopo da intuição humana. Esses sistemas capazes de resolver problemas de formas originais irão ultrapassar nossa capacidade de compreensão.
Leia também
Essa imprevisibilidade não é um sinônimo de caos, mas um sinal de que estamos lidando com sistemas que operam em níveis cognitivos desconhecidos. Esse avanço, embora inevitável, requer uma reflexão sobre o que significa controlar algo mais racional do que nós e como garantir que essa inteligência esteja alinhada aos nossos valores mais profundos.
O principal legado dessa palestra de Sustkever não foi o medo da superinteligência, mas o convite a uma transformação em nossa relação com a tecnologia. A inteligência artificial, ao se tornar cada vez mais inteligente, nos desafia a reavaliar os potenciais da mente humana.
Quanto mais uma IA raciocina, mais imprevisível ela se torna, e talvez seja essa mesma imprevisibilidade que nos force a evoluir. Não apenas para compreendê-la, mas para nos reinventarmos nesse caminho.
Os comentários são exclusivos para assinantes do Estadão.