THE NEW YORK TIMES - Parece ficção científica: frotas de robôs assassinos que caçam alvos por conta própria e são capazes de perseguir as presas voando, sem nenhuma chancela humana.
Mas esse cenário se aproxima da realidade conforme Estados Unidos, China e alguns outros países progridem rapidamente no desenvolvimento e acionamento de novas tecnologias com potencial de reformular a natureza da arte da guerra entregando decisões de vida ou morte a drones autônomos equipados com programas de inteligência artificial.
Mas essa perspectiva é tão preocupante para tantos outros governos que eles estão tentando colocar a atenção da comunidade internacional sobre o tema com propostas nas Nações Unidas para impor regras vinculantes legalmente para o uso do que os militares chamam de armas autônomas.
“Trata-se realmente de um dos pontos de inflexão mais significativos para a humanidade”, afirmou em entrevista o negociador-chefe da Áustria para o tema, Alexander Kmentt. “Qual a função dos seres humanos no uso da força? Trata-se de uma questão de segurança absolutamente fundamental, assim como legal e ética.”
Mas ainda que a ONU dê plataforma para governos expressarem suas preocupações, parece improvável esse processo ocasionar novas restrições vinculantes legalmente. EUA, Rússia, Austrália, Israel e outros países argumentam que nenhuma nova lei internacional é necessária por agora, enquanto a China pretende definir cada limite legal tão estritamente que o possível regramento teria pouco efeito prático, afirmam defensores de controles de armamentos.
O resultado tem sido amarrar o debate em um nó procedimental com pouca chance de progresso em relação a um mandato legalmente vinculante no futuro próximo.
“Nós não consideramos agora realmente o momento certo”, afirmou o subchefe da delegação russa na ONU, Konstantin Vorontsov, a diplomatas apinhados em uma sala de reunião no porão da sede das Nações Unidas, em Nova York.
O debate a respeito dos riscos da inteligência artificial atraiu nova atenção nos dias recentes com a batalha pelo controle da OpenAI, talvez a principal empresa de inteligência artificial no planeta, cujos líderes pareceram divididos sobre a firma tomar ou não cuidado suficiente com os perigos da tecnologia. E na semana passada autoridades chinesas e americanas discutiram um tema relacionado: possíveis limites ao uso de inteligência artificial em decisões a respeito de acionamento de armas nucleares.
Leia mais
Neste cenário, a questão a respeito de quais limites devem ser colocados sobre o uso de armas autônomas letais ganhou nova urgência e resume-se a ser ou não suficiente que a ONU simplesmente adote diretrizes não vinculantes, a posição apoiada pelos EUA.
“Será muito difícil para a nossa delegação aceitar a expressão ‘obrigado a’”, afirmou o oficial-chefe para acordos internacionais do Departamento de Estado, Joshua Dorosin, a outros negociadores durante um debate a respeito da terminologia das propostas de restrições.
Dorosin e membros da delegação americana, que inclui um representante do Pentágono, argumentaram que, em vez de criar uma nova lei internacional, a ONU deveria esclarecer que as leis de direitos humanos existentes já proíbem nações de usar armas que miram civis ou lhes castigam desproporcionalmente.
Mas a posição sendo adotada pelas grandes potências só fez aumentar a ansiedade entre nações menores, que afirmam estar preocupadas com a possibilidade das armas autônomas se tornarem comuns no campo de batalha antes de qualquer acordo sobre regras para o seu uso.
“Complacência não parece mais uma opção”, afirmou o embaixador paquistanês Khalil Hashmi durante uma reunião na sede da ONU. “A janela de oportunidade para agir diminui rapidamente conforme nos preparamos para uma explosão tecnológica.”
Avanços rápidos em inteligência artificial e o intenso uso de drones nos conflitos na Ucrânia e no Oriente Médio combinaram-se tornando o assunto muito mais urgente. Até aqui, drones dependem normalmente de operadores humanos para realizar missões letais, mas estão em desenvolvimento softwares que logo lhes permitirão encontrar e selecionar alvos mais autonomamente.
O intenso embaralhamento de comunicações via rádio e sinais de GPS na Ucrânia acelerou a mudança, já que drones autônomos com frequência conseguem manter-se em operação mesmo quando comunicações são cortadas.
“Não é o enredo de um romance distópico. É uma realidade à espreita”, disse a autoridades o primeiro-ministro de Antígua e Barbuda, Gaston Browne, durante uma reunião recente na ONU.
Autoridades do Pentágono deixaram claro que estão se preparando para acionar armas autônomas em grande escala.
A subsecretária da Defesa dos EUA, Kathleen Hicks, anunciou neste verão (Hemisfério Norte) que as Forças Armadas americanas “acionarão sistemas de atrito autônomos na escala de múltiplos milhares” nos próximos dois anos, afirmando que o esforço para competir com o investimento da China em armamentos avançados requer que os EUA “lancem mão de plataformas pequenas, inteligentes, baratas e abundantes”.
O conceito de arma autônoma não é inteiramente novo. Minas terrestres — que detonam automaticamente — são usadas desde a Guerra Civil Americana. Os EUA têm sistemas de mísseis que utilizam sensores de radar para fixar a mira e atingir alvos.
O que tem mudado é a introdução de inteligência artificial, que poderia dar aos sistemas de armamentos capacidade de tomar decisões próprias depois de colher e processar informações.
Os EUA já adotaram políticas voluntárias que estabelecem limites a respeito das maneiras que a inteligência artificial e as armas autônomas letais serão usadas, incluindo uma diretriz revisada pelo Pentágono este ano chamada “Autonomia em Sistemas de Armamentos”, e outra diretriz relacionada, do Departamento de Estado, intitulada “Declaração Política sobre Uso Responsável de Inteligência Artificial e Autonomia”, que a diplomacia americana instou outros países a adotar.
As diretrizes da política americana “possibilitarão às nações obter potenciais benefícios dos sistemas de inteligência artificial no domínio militar ao mesmo tempo encorajando passos que evitem comportamentos irresponsáveis, desestabilizadores e negligentes”, afirmou a subsecretária do Departamento de Estado Bonnie Denise Jenkins.
A política do Pentágono proíbe o uso de qualquer nova arma autônoma e até seu desenvolvimento se o projeto não for aprovado por altas autoridades do Departamento de Defesa. Essas armas devem ser operadas em áreas geográficas definidas, por períodos limitados. E se as armas são controladas por inteligência artificial, militares devem deter “a capacidade de desvincular ou desativar sistemas acionados que demonstrem comportamentos não pretendidos”.
Pelo menos inicialmente, a aprovação humana será necessária antes que a ação letal seja realizada, afirmaram em entrevista generais da Força Aérea.
Mas o secretário da Força Aérea, Frank Kendall, afirmou em outra entrevista que essas máquinas eventualmente terão de ter capacidade para realizar ações letais por conta própria enquanto permanecem sob supervisão humana em relação à maneira que são acionadas.
“Tomar decisões individuais em vez de não tomar decisões individuais é a diferença entre ganhar ou perder — e nós não vamos perder”, afirmou Kendall. Ele acrescentou, “Eu não acho que nossos possíveis inimigos permitiriam essa limitação, e eles teriam uma enorme vantagem se nós a colocássemos sobre nós mesmos.”
O oficial aposentado da Marinha Thomas Hammes, atualmente pesquisador da Universidade de Defesa Nacional do Pentágono, afirmou em entrevista e num ensaio publicado recentemente pelo Atlantic Council que é um “imperativo moral os EUA e outras nações democráticas” construírem e usarem armas autônomas.
Hammes argumentou que “não fazer isso em um grande conflito convencional resultará em muitas mortes, militares e civis, e potencialmente na derrota no conflito”.
Leia também
Alguns defensores de controles de armas e diplomatas discordam, argumentando que armas mortíferas controladas por inteligência artificial que prescindem de humanos autorizando cada ataque transformarão a natureza da guerra eliminando o papel moral direto que os humanos desempenham em decisões a respeito de tirar vidas.
Essas armas com inteligência artificial agirão às vezes de maneiras imprevisíveis e tendem a cometer erros na identificação de alvos da mesma forma dos carros autônomos que sofrem acidentes, afirmam esses críticos.
Os novos armamentos também poderão tornar o uso de força letal mais provável durante as guerras, já que o exército que os lançar não estará colocando em risco imediatamente seus próprios soldados, ou ocasionar escaladas mais rápidas, argumentam os críticos.
Grupos que defendem controles sobre armas, como o Comitê Internacional da Cruz Vermelha e a campanha Stop Killer Robots (Parem os robôs assassinos), juntamente com delegações de países que incluem Áustria, Argentina, Nova Zelândia, Suíça e Costa Rica, propuseram uma variedade de limites.
Alguns pretendem banir globalmente armas autônomas letais que mirem explicitamente humanos. Outros exigem que esses armamentos permaneçam sob “controle humano significativo” e sejam usados em espaços restritos por períodos de tempo específicos.
Kmentt, o diplomata austríaco, reconheceu em entrevista que a ONU já teve dificuldades em fazer vigorar tratados que estabelecem limites a respeito das maneiras que as guerras podem ou não ser travadas. Mas ainda há uma necessidade, segundo ele, de criar um novo padrão vinculante legalmente.
“As pessoas sempre cometerão assassinatos, mas isso não significa que não precisamos de legislação que proíba homicídios”, afirmou ele. “O que nós temos neste momento é um enorme campo absolutamente não regulado.”
Mas Dorosin se opõe repetidamente a propostas de exigências que os EUA considerem ambíguas demais ou não estejam dispostos a aceitar, como pretender que as armas permaneçam sob “controle humano significativo”. A terminologia preferida dos EUA é “dentro de uma cadeia de comando humana responsável”. Dorosin afirmou que é importante para os Estados Unidos que os negociadores “evitem terminologias vagas e amplas”.
Vorontsov, o diplomata russo, pediu a palavra depois de Dorosin durante um desses debates e endossou a posição dos EUA. “Nós compreendemos que, para muitas delegações, a prioridade é o controle humano”, disse Vorontsov. “Para a Federação Russa, as prioridades são um pouco diferentes.”
EUA, China e Rússia também argumentaram que inteligência artificial e armas autônomas poderão trazer benefícios reduzindo baixas civis e danos físicos desnecessários.
“Armamentos inteligentes, que usam computadores e funções autônomas para acionar força mais precisamente e eficazmente, têm sido vistos reduzindo riscos de ferir civis e danificar itens civis”, argumentou a delegação americana.
No início de novembro, Kmentt ganhou amplo apoio para um plano revisado que pedia ao escritório do secretário-geral das Nações Unidas montar um relatório a respeito de armas autônomas letais, mas o documento deixou claro que, em deferência às maiores potências, as deliberações detalhadas sobre o assunto permaneceriam em um comitê da ONU em Genebra, onde qualquer país é capaz, sozinho, de bloquear efetivamente o progresso de análises ou forçar terminologias que diluam seus conteúdos.
Na semana passada, o comitê em Genebra concordou com o pedido da Rússia e de outras grandes potências de dar a si mesmas um prazo até 2025 para estudar o tópico, afirmou um diplomata que participou do debate. “Se esperarmos tempo demais, nós vamos nos arrepender amargamente”, afirmou Kmentt. “Logo as armas autônomas letais serão baratas, estarão facilmente disponíveis e em toda parte. E as pessoas se perguntarão, ‘Por que não agimos com rapidez suficiente para colocar limites quando tivemos a chance?’.” / TRADUÇÃO DE AUGUSTO CALIL