IA: Carta de Musk e Harari completa seis meses e ainda quer saber se tecnologia vai nos destruir

Carta aberta falava em ‘dramáticas perturbações econômicas e políticas’ que a inteligência artificial irá causar

PUBLICIDADE

Foto do author Bruna Arimathea

Prestes a completar seis meses da carta que pedia uma “pausa” no desenvolvimento da inteligência artificial (IA) no mundo, a organização Future Of Life (FLI), divulgou um comunicado em que pede a regulação da tecnologia e cobrou respostas de várias empresas que estão liderando a corrida pelo avanço da IA. Na época, personalidades como Elon Musk, presidente da SpaceX e da Tesla, o historiador Yuval Noah Harari e o cofundador da Apple Steve Wozniak assinaram o manifesto.

A carta, assinada por mais de mil especialistas da área, pedia um prazo de seis meses para que fossem estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente às “dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA irá causar”.

PUBLICIDADE

Desde o final de março, quando a carta inicial foi divulgada, o FLI afirma que muita coisa mudou no mundo do desenvolvimento da IA. Entre o primeiro semestre e o começo do segundo, líderes foram ao Senado americano para discutir sobre a tecnologia e a União Europeia começou a discutir como fazer a regulação da IA no continente.

Na última semana, por exemplo, o A.I. Insight Forum, nos EUA, foi uma reunião em que Musk, Sam Altman, CEO da OpenAI, Mark Zuckerberg, CEO da Meta, Sundar Pichai, CEO do Google, Bill Gates, fundador da Microsoft, Satya Nadella, CEO da Microsoft e Jensen Huang, CEO da Nvidia, conversaram sobre como a tecnologia poderia escalar em um futuro próximo.

Publicidade

Mas agora, seis meses depois, o FLI quer que as discussões sobre o assunto possam ser pautadas em algumas perguntas que refletem o futuro da IA. Algumas delas abordam o impacto direto da tecnologia na vida humana.

“Os sistemas que vocês estão construindo podem destruir a civilização?”, “seus sistemas podem matar ou machucar pessoas?” e “você se responsabiliza pelos danos (causados pela IA)” são algumas das perguntas que a instituição quer que companhias como Google, Microsoft, Meta e OpenAI respondam.

“A abordagem dos riscos de segurança da IA avançada deve ser um esforço global”, disse Max Tegmark, Presidente da FLI. “A corrida armamentista em curso arrisca um desastre global e prejudica qualquer chance de concretizar os futuros incríveis possíveis com a IA. Uma coordenação eficaz exigirá uma participação significativa de todos nós.”

Ainda, o FLI tratou os avanços na discussão como o início de uma jornada para evitar riscos e afirmou que a carta do início do ano não era apenas um aviso, mas também uma espécie de cartilha de recomendações que inclui “exigir o registro de grandes acúmulos de recursos computacionais, estabelecer um processo rigoroso de auditoria de riscos e exigir que desenvolvedores provem que seus sistemas são seguros, protegidos e éticos”.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.