O avanço veloz da inteligência artificial (IA) levou um grupo de empresários e especialistas da área a pedir uma pausa de seis meses nas pesquisas sobre a tecnologia, conforme carta publicada na quarta-feira, 29. O documento, porém, tem recebido críticas de figuras importantes do mundo de IA, que duvidam das intenções da Future of Life, ONG que encabeçou o movimento.
Criada em 2014, a instituição com sede na Pensilvânia (EUA) tem, entre seus conselheiros, o bilionário Elon Musk, o ator Morgan Freeman, o fundador do Skype, Jaan Tallinn, o diretor do Massachussets Institute of Technology (MIT), Erik Brynjolfsson, e o cofundador do Centre for the Study of Existential Risk, Martin Rees. De acordo com a organização, o principal objetivo é atuar em quatro frentes que podem ter elementos que representem riscos relacionados à tecnologia: inteligência artificial, biotecnologia, armas nucleares e mudanças climáticas. Em 2015, Musk doou US$ 10 milhões para a instituição.
Frequentemente, porém, a Future of Life é classificada como representante do chamado longtermism, uma corrente controversa de pensamento que considera que as ações do presente devem ser tomadas para salvar populações futuras - as estimativas dos “longtermistas” sobre o tamanho de populações futuras são geradas em simulações computacionais.
Recentemente, Sam Bankman-Fried, ex-CEO da FTX, aderiu à filosofia. O caso mais conhecido envolvendo o longtermism é o do fundador da marca americana Patagonia, Yvon Chouinard, que anunciou que decidiu doar o seu negócio à causa da proteção do meio ambiente.
O que é o longtermism?
Corrente baseada no trabalho do filósofo Nick Bostrom, o longtermism é acusado de ignorar problemas atuais e mais urgente da humanidade para favorecer um cenário futuro no qual apenas os descendentes das elites poderão prosperar. A filosofia é apontada como antidemocrática por permitir que os superricos tomem decisões moralmente questionáveis — frequentemente, é associada a bilionários do Vale do Silício, como Peter Thiel.
Em um de seus trabalhos, Bostrom diz que um “desastre que causa o colapso da civilização global é, da perspectiva de toda a humanidade, um atraso potencialmente recuperável”. O filósofo também já classificou as duas Guerras Mundiais, o Holocausto, a gripe espanhola e grande terremotos e erupções vulcânicas como “meras marolas” diante da perspectiva de toda a vida humana.
“Acreditamos que a maneira como uma tecnologia poderosa é desenvolvida e usada será o fator mais importante na determinação das perspectivas para o futuro da vida. É por isso que assumimos como missão garantir que a tecnologia continue a melhorar essas perspectivas”, afirma o site da ONG, em uma aba sobre o ativismo em IA.
Carta ‘anti-IA’
A falta de propostas concretas para melhorar o uso de IA nos dias atuais e o tom alarmista do documento estão entre os elementos da carta associados ao longtermism.
Em uma serie de comentários no Twitter, a especialista em ética e IA Timnit Gebru, mandada embora do Google em dezembro de 2020 por discordar das práticas da empresa, afirmou: “Imagine se os líderes da Cientologia estivessem liderando a pesquisa, o discurso e as recomendações de política sobre IA e a imprensa falasse de tudo, exceto que eles são líderes da Cientologia e que isso é sua ideologia motivadora por trás disso”.
Emily M. Bender, professora de linguística na Universidade de Washington especializada em linguística computacional e processamento de linguagem natural, escreveu também: “O Future of Life é uma ‘operação longtermista’. Vocês sabem, pessoas focadas em maximizar a felicidade de bilhões de seres futuros que moram em uma simulação de computador”.
Emily também escreveu: “Escrevemos um artigo no final de 2020 que apontava que a corrida para modelos de linguagem gigantes sem considerar os riscos era algo ruim. Mas os riscos e malefícios nunca foram sobre ‘IAs superpoderosas’. Eles são sobre a concentração de poder nas mãos de pessoas, sobre a reprodução de sistemas de opressão, sobre dano ao ecossistema da informação e sobre o dano ao ecossistema natural por meio do uso desenfreado de recursos energéticos”.
O artigo “Stochastic Parrots”, de autoria de Emily e Timnit, foi citado na carta.
Timnit também critica um outro trecho da carta, que fala sobre a lealdade de sistemas de IA, algo também visto como um objetivo dos seguidores do longtermism. O trecho diz: “‘A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de última geração de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais’.”
Ela responde: “Leais a quem?”. A submissão de máquinas superinteligentes para a expansão da humanidade também faz parte das visões de longo prazo da filosofia.
Quem está por trás da carta ‘anti-IA’
Entre as pessoas que aderiram à petição estão Musk, o cofundador da Apple, Steve Wozniak, Emad Mostaque, CEO da Stability AI, e Craig Peters, CEO da Getty Images. Até o momento, a carta já foi assinada por mais de mil especialistas.
“Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4″, afirma a carta.
“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, diz o documento. Especialistas, porém, dizem que é pausa para o desenvolvimento da tecnologia.