Instituto de carta ‘anti-IA’ é criticado por posições pró-superricos do Vale do Silício

Organização Future of Life é apontada como uma representação de filosofia ‘longtermism’

PUBLICIDADE

Foto do author Bruna Arimathea
Foto do author Bruno Romani
Atualização:

O avanço veloz da inteligência artificial (IA) levou um grupo de empresários e especialistas da área a pedir uma pausa de seis meses nas pesquisas sobre a tecnologia, conforme carta publicada na quarta-feira, 29. O documento, porém, tem recebido críticas de figuras importantes do mundo de IA, que duvidam das intenções da Future of Life, ONG que encabeçou o movimento.

PUBLICIDADE

Criada em 2014, a instituição com sede na Pensilvânia (EUA) tem, entre seus conselheiros, o bilionário Elon Musk, o ator Morgan Freeman, o fundador do Skype, Jaan Tallinn, o diretor do Massachussets Institute of Technology (MIT), Erik Brynjolfsson, e o cofundador do Centre for the Study of Existential Risk, Martin Rees. De acordo com a organização, o principal objetivo é atuar em quatro frentes que podem ter elementos que representem riscos relacionados à tecnologia: inteligência artificial, biotecnologia, armas nucleares e mudanças climáticas. Em 2015, Musk doou US$ 10 milhões para a instituição.

Frequentemente, porém, a Future of Life é classificada como representante do chamado longtermism, uma corrente controversa de pensamento que considera que as ações do presente devem ser tomadas para salvar populações futuras - as estimativas dos “longtermistas” sobre o tamanho de populações futuras são geradas em simulações computacionais.

Recentemente, Sam Bankman-Fried, ex-CEO da FTX, aderiu à filosofia. O caso mais conhecido envolvendo o longtermism é o do fundador da marca americana Patagonia, Yvon Chouinard, que anunciou que decidiu doar o seu negócio à causa da proteção do meio ambiente.

O empresário Elon Musk faz parte da organização Future of Life. Foto: Patrick Pleu/AP

O que é o longtermism?

Corrente baseada no trabalho do filósofo Nick Bostrom, o longtermism é acusado de ignorar problemas atuais e mais urgente da humanidade para favorecer um cenário futuro no qual apenas os descendentes das elites poderão prosperar. A filosofia é apontada como antidemocrática por permitir que os superricos tomem decisões moralmente questionáveis — frequentemente, é associada a bilionários do Vale do Silício, como Peter Thiel.

Publicidade

Em um de seus trabalhos, Bostrom diz que um “desastre que causa o colapso da civilização global é, da perspectiva de toda a humanidade, um atraso potencialmente recuperável”. O filósofo também já classificou as duas Guerras Mundiais, o Holocausto, a gripe espanhola e grande terremotos e erupções vulcânicas como “meras marolas” diante da perspectiva de toda a vida humana.

“Acreditamos que a maneira como uma tecnologia poderosa é desenvolvida e usada será o fator mais importante na determinação das perspectivas para o futuro da vida. É por isso que assumimos como missão garantir que a tecnologia continue a melhorar essas perspectivas”, afirma o site da ONG, em uma aba sobre o ativismo em IA.

Carta ‘anti-IA’

A falta de propostas concretas para melhorar o uso de IA nos dias atuais e o tom alarmista do documento estão entre os elementos da carta associados ao longtermism.

Em uma serie de comentários no Twitter, a especialista em ética e IA Timnit Gebru, mandada embora do Google em dezembro de 2020 por discordar das práticas da empresa, afirmou: “Imagine se os líderes da Cientologia estivessem liderando a pesquisa, o discurso e as recomendações de política sobre IA e a imprensa falasse de tudo, exceto que eles são líderes da Cientologia e que isso é sua ideologia motivadora por trás disso”.

Emily M. Bender, professora de linguística na Universidade de Washington especializada em linguística computacional e processamento de linguagem natural, escreveu também: “O Future of Life é uma ‘operação longtermista’. Vocês sabem, pessoas focadas em maximizar a felicidade de bilhões de seres futuros que moram em uma simulação de computador”.

Publicidade

Emily também escreveu: “Escrevemos um artigo no final de 2020 que apontava que a corrida para modelos de linguagem gigantes sem considerar os riscos era algo ruim. Mas os riscos e malefícios nunca foram sobre ‘IAs superpoderosas’. Eles são sobre a concentração de poder nas mãos de pessoas, sobre a reprodução de sistemas de opressão, sobre dano ao ecossistema da informação e sobre o dano ao ecossistema natural por meio do uso desenfreado de recursos energéticos”.

O artigo “Stochastic Parrots”, de autoria de Emily e Timnit, foi citado na carta.

Timnit também critica um outro trecho da carta, que fala sobre a lealdade de sistemas de IA, algo também visto como um objetivo dos seguidores do longtermism. O trecho diz: “‘A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de última geração de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais’.”

Ela responde: “Leais a quem?”. A submissão de máquinas superinteligentes para a expansão da humanidade também faz parte das visões de longo prazo da filosofia.

Quem está por trás da carta ‘anti-IA’

Entre as pessoas que aderiram à petição estão Musk, o cofundador da Apple, Steve Wozniak, Emad Mostaque, CEO da Stability AI, e Craig Peters, CEO da Getty Images. Até o momento, a carta já foi assinada por mais de mil especialistas.

Publicidade

“Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4″, afirma a carta.

“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, diz o documento. Especialistas, porém, dizem que é pausa para o desenvolvimento da tecnologia.

Comentários

Os comentários são exclusivos para assinantes do Estadão.