Nesta quarta, 29, um grupo de “notáveis”, incluindo Elon Musk, pediu uma pausa de seis meses no desenvolvimento em modelos avançados de inteligência artificial (IA) - a carta aberta cita riscos profundos para a sociedade e humanidade. O documento, porém, deve ter poucos efeitos práticos para frear o desenvolvimento da tecnologia, segundo especialistas ouvidos pelo Estadão.
Uma comparação comum é o desenvolvimento de outras tecnologias poderosas, que alteraram a humanidade para sempre. “Pegue a história do desenvolvimento das armas nucleares e veja se houve pausa”, afirma Reinaldo Bianchi, professor do Centro Universitário da FEI. “Todas as grandes nações empresas vão desenvolver porque dá lucro e competitividade. E tem o medo de que se ele não desenvolver o concorrente ou país inimigo vai”, diz ele.
A corrida pela IA é também uma disputa geopolítica. A China, por exemplo, desenvolveu um plano nacional de se tornar uma potência em IA até 2030. “Duvido que a China pararia o desenvolvimento. Seria o equivalente apedir pra Microsoft parar o desenvolvimento do Windows na década de 90”, diz Anderson Soares, coordenador do Centro de Excelência em Inteligência Artificial da Universidade Federal de Goiás (UFG).
“Quanto a carta, podemos comparar com outras iniciativas, como banir armas nucleares, banir armas químicas e banir “robôs assassinos” Até o aquecimento global é tratado com uma carta de intenções, mas tem como garantir que vamos cumprir as metas?”, argumenta Fernando Osório, professor da Universidade de São Paulo (USP) em São Carlos.
Para os especialistas paira no ar também a questão econômica como fator que joga contra qualquer tipo de pausa. A Microsoft, por exemplo. investiu investiu US$ 13 bilhões (e espera retorno de US$ 92 bilhões) na OpenAI, companhia por trás do ChatGPT. “A carta é um pouco capciosa e parece mirar a OpenAI”, diz Fábio Cozman, diretor do Centro de Inteligência Artificial da USP. “A carta é frustrante porque trata de uma técnica de IA (modelos amplos de linguagem) e ignora questões importantes, como garantir privacidade e como os documentos nesses modelos são protegidos. Isso afetaria toda indústria, mas, em vez de pedir reflexão geral, eles miraram uma técnica específica”, diz.
Já Andre Ng, fundador da startup Landing AI e dono de uma longa carreira na área, afirmou em texto: “Não há maneira realista de implementar uma pausa e parar todos os times de trabalhar com modelos amplos de linguagem, a não ser que governos façam uma intervenção. Governos pausarem tecnologias emergentes sobre as quais não entendem é anticompetitivo, estabelece um precedente terrível e é uma política de inovação horrível”.
Embora a Europa esteja mirando a regulação a tecnologia, o que também reflete nas discussões brasileiras, o período de seis meses seria insuficiente para desenvolver legislação específica. “A maior dificuldade que a Europa tem em regular IA é começar definindo o que é IA”, diz Soares.
Walter Carnielli, do Centro de Lógica, Epistemologia e História a Ciência (CLE) da Unicamp afirma que uma eventual pausa não freará o desenvolvimento da tecnologia. “Só desacelerará temporariamente e, se não aproveitarmos bem, não vai servir para nada - só para as Big Techs alegarem que ‘fizeram o possível’”, diz ele ao Estadão.
Outros nomes famosos não assinaram o documento por duvidarem de suas intenções. Entre eles estão Yann LeCun, diretor responsável por desenvolvimento de IA na Meta e um dos principais nomes do segmento na história, e Timnit Gebru, especialista em ética e IA que ficou famosa por ser demitida do Google.