Como a Inteligência Artificial está mudando a face da guerra moderna


Um estado-maior assistido por IA pode ser mais importante do que robôs assassinos

Por Redação

No fim de 2021, a Marinha Real procurou a Microsoft e a Amazon Web Services, duas gigantes americanas da tecnologia, com uma pergunta: haveria uma maneira melhor de guerrear? Mais especificamente, poderiam elas encontrar uma forma mais eficaz de coordenação entre uma hipotética equipe de ataque no Caribe e os sistemas de mísseis de uma fragata?

As empresas de tecnologia colaboraram com a BAE Systems, uma gigante fabricante de armas, e a Anduril, uma empresa iniciante de menor porte, entre outros fornecedores militares. No espaço de 12 semanas, um intervalo incrivelmente rápido no universo das aquisições de defesa, o consórcio se reuniu em Somerset, no Reino Unido, para uma demonstração do que foi apelidado de StormCloud.

continua após a publicidade

Fuzileiros navais no solo, drones no ar e muitos outros sensores foram conectados por meio de uma rede no estilo “mesh” de rádios avançados que permitia a cada um ver, continuamente, o que estava acontecendo em outros lugares, uma configuração que já havia permitido aos fuzileiros navais bater forças muito maiores em exercícios anteriores.

Os dados recolhidos foram processados tanto na “borda” da rede, a bordo de computadores pequenos e robustos amarrados aos veículos dos comandos com cabos elásticos, como em servidores de nuvem distantes, para onde foram enviados por satélite. O software de comando e controle monitorou uma área designada, decidiu quais drones deveriam voar para onde, identificou objetos no solo e sugeriu qual armamento usar para atacar qual alvo.

Os resultados foram impressionantes. Ficou evidente que o StormCloud era a “cadeia de destruição mais avançada do mundo”, diz um oficial envolvido no experimento, referindo-se a uma rede de sensores (como drones) e armas (como mísseis) interligados com redes digitais e software para dar sentido aos dados fluindo de um lado para outro. Mesmo há dois anos, em termos de velocidade e confiabilidade, diz ele, o sistema estava “quilômetros à frente” dos oficiais humanos em um quartel-general convencional.

continua após a publicidade
Estudo descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c (foto), poderia poupar à Força Aérea dos EUA US$ 25 milhões por mês Foto: Ints Kalnins/Reuters

Ferramentas e armas habilitadas para inteligência artificial (IA) não estão sendo utilizadas apenas em exercícios. São também utilizadas em uma escala crescente em locais como Gaza e a Ucrânia. As forças armadas enxergam oportunidades notáveis. Elas também temem ser deixadas para trás pelos adversários. A despesa está aumentando rapidamente. Mas advogados e especialistas em ética temem que a IA torne a guerra mais rápida, mais opaca e menos humana. O fosso entre os dois grupos está aumentando, mesmo em um momento em que se torna cada vez mais concreta a perspectiva de uma guerra entre grandes potências.

Não existe uma definição única de IA. Coisas que outrora teriam merecido esse termo, como a navegação de mapeamento de relevo dos mísseis Tomahawk na década de 1980 ou as capacidades de detecção de tanques dos mísseis Brimstone no início da década de 2000, são agora vistas como software de trabalho. E muitas capacidades de ponta descritas como IA não envolvem o tipo de “aprendizado profundo” e grandes modelos de linguagem que sustentam serviços como o ChatGPT. Mas, sob vários disfarces, a IA está se infiltrando em todos os aspectos da guerra.

continua após a publicidade

MelhorIAs

Isso começa com a parte chata: manutenção, logística, pessoal e outras tarefas necessárias para manter os exércitos equipados, alimentados e abastecidos. Um estudo recente realizado pelo centro de estudos estratégicos Rand Corporation descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c, poderia poupar à Força Aérea dos Estados Unidos US$ 25 milhões por mês, evitando avarias e excesso de estoque de peças (embora a IA tenha feito um trabalho pior com peças que raramente quebravam). A logística é outra área promissora. O Exército dos EUA está utilizando algoritmos para prever quando os obuses ucranianos necessitarão de novos canhões, por exemplo. A IA também está começando a chegar ao RH. O exército está usando um modelo treinado com 140 mil arquivos de pessoal para ajudar a selecionar soldados para promoção.

continua após a publicidade

No outro extremo está a extremidade afiada da coisa. Tanto a Rússia como a Ucrânia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma, mesmo que a interferência interrompa a conexão entre o piloto e o drone. Ambos os lados normalmente usam pequenos chips para essa finalidade, que podem custar apenas US$ 100.

Vídeos de ataques de drones na Ucrânia mostram cada vez mais “caixas delimitadoras” aparecendo em torno de objetos, sugerindo que o drone está identificando um alvo e travando nele. A tecnologia permanece imatura, com os algoritmos de mira enfrentando muitos dos mesmos problemas enfrentados pelos carros autônomos, como ambientes complexos e objetos ocultos, e alguns problemas exclusivos do campo de batalha, como fumaça e iscas. Mas ela está melhorando rapidamente.

Entre a IA no back-end e a IA dentro das munições há um vasto universo de inovação, experimentação e avanços tecnológicos. Os drones, por si só, estão apenas perturbando a guerra, em vez de transformá-la, argumentam Clint Hinote, um general da reserva da força aérea americana, e Mick Ryan, um general australiano da reserva. Mas, quando combinado, com “sistemas de comando e controle digitalizados” (como o StormCloud) e “redes mesh da nova era de sensores civis e militares”, o resultado, dizem eles, é uma “trindade transformadora” que permite aos soldados na linha de frente ver e agir com base em informações em tempo real que antes estariam confinadas a uma sede distante.

continua após a publicidade

A IA é um pré-requisito para isso. Comecemos com a rede mesh de sensores. Imagine dados de drones, satélites, redes sociais e outras fontes circulando por uma rede militar. Há muito para ser processado manualmente. Tamir Hayman, general que liderou a inteligência militar israelita até 2021, aponta dois grandes avanços. O “salto fundamental”, diz ele, oito ou nove anos atrás, ocorreu no software de conversão de voz em texto que permitia a busca por palavras-chave em interceptações de voz. O outro estava na visão computacional.

O projeto Spotter, do Ministério da Defesa britânico, já está utilizando redes neurais para a “detecção e identificação automatizada de objetos” em imagens de satélite, permitindo que os locais sejam “monitorizados automaticamente 24 horas por dia, 7 dias por semana, em busca de alterações na atividade”. Até fevereiro, uma empresa privada rotulou 25 mil objetos para treinar o modelo.

continua após a publicidade

Tom Copinger-Symes, um general britânico, disse à Câmara dos Lordes no ano passado que tais sistemas “ainda estavam nos limites superiores da pesquisa e desenvolvimento, e não em fase de implantação em grande escala”, embora tenha apontado para a utilização de ferramentas comerciais para identificar, por exemplo, grupos de civis durante a retirada dos cidadãos britânicos do Sudão no início de 2023. Os EUA parecem estar mais adiantados. O país iniciou o projeto Maven em 2017 para lidar com o dilúvio de fotos e vídeos feitos por drones no Afeganistão e no Iraque.

O Maven “já está produzindo grandes volumes de detecções de visão computacional para as necessidades dos combatentes”, observou em maio o diretor da Agência Nacional de Inteligência Geoespacial, que administra o projeto. O objetivo declarado é que o Maven “atenda ou exceda o desempenho humano de detecção, classificação e rastreamento”.

Ele ainda não chegou lá: enfrenta dificuldades com casos complicados, como armas parcialmente escondidas. Mas o rastreador de incêndios relacionados com a guerra na Ucrânia, da The Economist, é baseado no aprendizado de máquina, é totalmente automatizado e funciona em uma escala que os jornalistas não conseguem igualar. Já detectou 93 mil incêndios provavelmente relacionados à guerra.

Militar ucraniano opera drone em Zaporizhzhia. A Ucrânia e a Rússia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma. Foto: Andriy Andriyenko/AP

A IA pode processar mais do que chamadas telefônicas ou fotos. Em março, a Marinha Real anunciou que sua unidade caça-minas tinha completado um ano de experiências no Golfo Pérsico utilizando um pequeno barco autônomo, o Harrier, cujo sistema de sonar rebocado poderia procurar minas no fundo do mar e alertar outros navios ou unidades em terra. E Michael Horowitz, um funcionário do Pentágono, disse recentemente ao site Defense News que os EUA, a Austrália e a Reino Unido, como parte do seu pacto Aukus, desenvolveram um “algoritmo trilateral” que poderia ser usado para processar os dados acústicos recolhidos pelos sonares flutuantes lançados das aeronaves caça-submarino P-8 de cada país.

Na maioria desses casos, a IA está identificando um sinal em meio ao ruído ou um objeto em meio a alguma bagunça: é um caminhão ou um tanque? Uma âncora ou uma mina? Uma traineira ou um submarino? Identificar combatentes humanos é talvez mais complicado e, certamente, mais controverso. Em abril, a +972 Magazine, um meio de comunicação israelense, afirmou que as Forças de Defesa de Israel (IFD) estavam utilizando uma ferramenta de IA conhecida como Lavender para identificar milhares de palestinos como alvos, com operadores humanos apenas supervisionando os resultados do sistema antes de ordenarem ataques. O IDF respondeu que o Lavender era “simplesmente um banco de dados cujo objetivo é cruzar referências de fontes de inteligência”.

Na prática, o Lavender provavelmente será o que os especialistas chamam de sistema de apoio à decisão (DSS), uma ferramenta para fundir diferentes dados, como registros telefônicos, imagens de satélite e outras informações. A utilização de sistemas de informática pelos Estados Unidos para processar dados acústicos e olfativos provenientes de sensores no Vietnã pode ser considerada uma forma primitiva de DSS. Rupert Barrett-Taylor, do Instituto Alan Turing, em Londres, observa que o mesmo aconteceria com o software usado por espiões e forças especiais americanas na guerra contra o terrorismo, que transformava registros telefônicos e outros dados em enormes gráficos em forma de aranha para visualizar as conexões entre pessoas e locais, com o objetivo de identificar insurgentes ou terroristas.

Identificar ou explicar?

A diferença é que o software atual se beneficia de um maior poder computacional, de algoritmos mais sofisticados (os avanços nas redes neurais ocorreram apenas em 2012) e de mais dados, por causa da proliferação de sensores. O resultado não é apenas uma inteligência mais farta ou melhor. É uma indefinição da linha entre inteligência, vigilância e reconhecimento (ISR) e comando e controle (C2): entre dar sentido aos dados e agir com base neles.

Tomemos como exemplo o software GIS Arta, da Ucrânia, que recolhe dados a respeito de alvos russos, normalmente para baterias de artilharia. Ele já é capaz de gerar listas de alvos potenciais “de acordo com as prioridades do comandante”, escrevem os generais Hinote e Ryan. Uma das razões pelas quais a pontaria russa na Ucrânia melhorou nos meses mais recentes, dizem as autoridades, é que os sistemas de C2 da Rússia estão melhorando no processamento de informações provenientes de drones e no envio das mesmas para o seu armamento. “De acordo com algumas estimativas”, escreve Arthur Holland Michel em um documento para o Comitê Internacional da Cruz Vermelha (CICV), uma organização humanitária, “uma atividade de busca, reconhecimento e análise de alvos que anteriormente demorava horas poderia ser reduzida… a minutos”.

A Força Aérea dos EUA pediu recentemente à Rand Corporation que avaliasse se as ferramentas de IA poderiam fornecer opções para um “combatente espacial” enfrentando uma ameaça que se aproxima de um satélite. A conclusão foi que a IA poderia de fato recomendar respostas de “alta qualidade”. Da mesma forma, a Darpa, o braço de pesquisa do Pentágono, está trabalhando em um programa chamado, ironicamente, de Máquina do Caos Estratégico para Planejamento, Tática, Experimentação e Resiliência (Scepter), para produzir recomendações de ações para comandantes durante “engajamentos militares em alta velocidade de máquina”. Em essência, o sistema é capaz de gerar novos planos de guerra em tempo real.

“Muitos dos métodos que estão sendo utilizados” no Scepter e em projetos semelhantes da Darpa “nem existiam há dois ou cinco anos”, diz Eric Davis, gestor de programas da agência. Ele aponta para o exemplo da “teoria do operador de Koopman”, uma estrutura matemática antiga e obscura que pode ser usada para analisar sistemas complexos e não lineares, como os encontrados na guerra, em termos de álgebra linear mais simples. Avanços recentes na sua aplicação tornaram vários problemas de IA mais tratáveis.

ElogIAr e criticar

O resultado de tudo isto é um crescente abismo intelectual entre aqueles cuja função é travar a guerra e aqueles que procuram domá-la. Especialistas jurídicos e especialistas em ética argumentam que o papel crescente da IA na guerra está repleto de perigos. “Os sistemas que temos agora são incapazes de reconhecer intenções hostis”, argumenta Noam Lubell, da Universidade de Essex. “Eles não conseguem distinguir entre um soldado baixo com uma arma de verdade e uma criança com uma arma de brinquedo... ou entre um soldado ferido caído sobre um rifle e um atirador pronto para atirar com um rifle de alta precisão.” Tais algoritmos “não podem ser usados legalmente”, conclui. As redes neurais também podem ser enganadas com muita facilidade, diz Stuart Russell, um cientista da computação: “Você poderia então pegar objetos perfeitamente inocentes, como postes de luz, e imprimir neles padrões que convenceriam a arma de que se trata de um tanque”.

Os defensores da IA militar respondem que os céticos têm uma visão muito otimista da guerra. Um drone de ataque à procura de um objeto específico pode não ser capaz de reconhecer, e muito menos respeitar, uma tentativa de rendição, reconhece um antigo oficial britânico envolvido na política de IA. Mas, se a alternativa for um bombardeio intenso, “de qualquer forma, não há rendição nessa circunstância”. Keith Dear, ex-oficial da Força Aérea Real que agora trabalha para a Fujitsu, uma empresa japonesa, vai além. “Se…as máquinas produzem uma taxa de falsos positivos e falsos negativos mais baixa do que os humanos, especialmente sob pressão, seria antiético não delegar autoridade”, argumenta. “Fizemos vários tipos de testes onde comparamos as capacidades e os feitos da máquina e as do ser humano”, diz o General Hayman, das IDF. “A maioria dos testes revela que a máquina é muito, muito, muito mais precisa... na maioria dos casos não há comparação.”

O Pentágono (foto) está trabalhando em um programa que é capaz de gerar novos planos de guerra em tempo real. Foto: Charles Dharapak/AP/Arquivo

Uma falácia envolve extrapolar a partir das campanhas de combate ao terrorismos dos anos 2000. “O futuro não consiste em reconhecer o rosto de um sujeito e atirar nele a 3.000 metros de altura”, argumenta Palmer Luckey, fundador da Anduril, uma das empresas envolvidas no StormCloud. “Trata-se de tentar abater uma frota de embarcações anfíbias de desembarque no Estreito de Taiwan.” Se um objeto tem a assinatura visual, eletrônica e térmica de um lançador de mísseis, ele argumenta: “Você simplesmente não pode estar errado... é um sinal incrivelmente único”. A geração de modelos pré-guerra reduz ainda mais a incerteza: “99% do que se vê acontecer no conflito na China terá sido executado em uma simulação múltiplas vezes”, diz Luckey, “muito antes de acontecer”.

“O problema é que, quando a máquina comete erros, são erros horríveis”, diz o general Hayman. “Se aceitos, eles levariam a eventos traumáticos.” Ele, portanto, se opõe a tirar o ser humano do circuito e a automatizar completamente os ataques. “É realmente tentador”, reconhece. “É algo que aceleraria o procedimento de uma forma sem precedentes. Mas poderíamos violar assim o direito internacional.” Luckey admite que a IA será menos relevante no trabalho “sujo, confuso e horrível” da guerra urbana ao estilo de Gaza. “Se as pessoas imaginam que haverá robôs ao estilo do Exterminador do Futuro procurando o Muhammad certo e atirando nele… não é assim que vai funcionar.”

Por seu lado, o CICV alerta que os sistemas de IA são potencialmente imprevisíveis, opacos e sujeitos ao enviesamento, mas aceita que “podem facilitar uma coleta e análise mais rápida e mais ampla da informação disponível...minimizando os riscos para os civis”. Muito depende de como as ferramentas são usadas. Se as IDF empregaram o Lavender conforme relatado, isso sugere que o problema eram as regras de engajamento excessivamente expansivas e os operadores desatentos, e não alguma patologia do software em si.

Durante muitos anos, especialistas e diplomatas têm discutido nas Nações Unidas a respeito da possibilidade de restringir ou proibir os sistemas de armas autônomos (AWS). Mas até defini-los é difícil. O CICV diz que AWS são aqueles armamentos que escolhem um alvo com base em um perfil geral: qualquer tanque, digamos, em vez de um tanque específico. Isso incluiria muitos dos drones usados na Ucrânia. O CICV é a favor da proibição de AWS que tenham como alvo pessoas ou que se comportem de forma imprevisível. O Reino Unido responde que as armas “totalmente” autônomas são aquelas que identificam, selecionam e atacam alvos sem “envolvimento humano adequado ao contexto”, um critério muito mais elevado. O Pentágono tem uma opinião semelhante, enfatizando “níveis apropriados de julgamento humano”.

Definir isso, por sua vez, é terrivelmente difícil. E isso não tem a ver apenas com o ato letal, mas com o que vem antes dele. Um drone de ataque altamente autônomo pode aparentar carecer de controle humano. Mas, se o seu comportamento for bem compreendido e for utilizado em uma área onde se sabe que há alvos militares legítimos, e não há civis, talvez os problemas sejam poucos. Por outro lado, uma ferramenta que apenas sugere alvos pode parecer mais benigna. Mas os comandantes que aprovam manualmente alvos individuais sugeridos pela ferramenta “sem clareza ou consciência cognitiva”, como afirma o Article 36, um grupo de defesa dos direitos, ou em outras palavras, apertando inconscientemente o botão vermelho, delegaram a responsabilidade moral para uma máquina.

O dilema deve piorar por dois motivos. Uma é que a IA gera mais IA. Se um exército estiver usando IA para localizar e atingir alvos mais rapidamente, o outro lado poderá ser forçado a recorrer à IA para acompanhar. Esse já é o caso quando se trata de defesa aérea, onde o software avançado tem sido essencial para rastrear ameaças desde o início da era da informática. A outra razão é que será mais difícil para os utilizadores humanos compreender o comportamento e as limitações dos sistemas militares. O aprendizado de máquina moderno ainda não é amplamente utilizado em sistemas “críticos” de apoio à decisão, observa Holland Michel. Mas será. E esses sistemas realizarão “tarefas mais difíceis de definir matematicamente”, observa ele, como prever a intenção futura de um adversário ou mesmo o seu estado emocional.

Fala-se até em usar IA na tomada de decisões nucleares. A ideia é que os países possam não só fundir dados para acompanhar as ameaças (como tem acontecido desde a década de 1950), mas também retaliar automaticamente se a liderança política for morta em um primeiro ataque. A União Soviética trabalhou neste tipo de conceito de “mão morta” durante a Guerra Fria como parte do seu sistema “Perimetr”. Ele continua em uso, e agora há rumores de que dependa de software baseado em IA, observa Leonid Ryabikhin, ex-oficial da força aérea soviética e especialista em controle de armas. Em 2023, um grupo de senadores americanos chegou a apresentar um novo projeto de lei: a “Lei de Bloqueio de Lançamento Nuclear por Inteligência Artificial Autônoma”. Esta é, naturalmente, uma área secreta, e pouco se sabe sobre até onde os diferentes países querem ir. Mas a questão é suficientemente importante para ter estado no topo da pauta das conversações presidenciais do ano passado entre Joe Biden e Xi Jinping.

Seguir no topo

No momento, nas guerras convencionais, “quase sempre há tempo para alguém dizer sim ou não”, diz um oficial britânico. “Não há necessidade de automação de toda a cadeia de destruição, e o processo não está em vias de adoção.” Se isso seria verdade em uma guerra de alta intensidade com a Rússia ou a China é menos claro. Em The Human Machine Team, um livro publicado sob pseudônimo em 2021, o brigadeiro-general Yossi Sariel, chefe de uma unidade de inteligência militar de elite israelense, escreveu que uma “equipe homem-máquina” habilitada com IA poderia gerar “milhares de novos alvos todos os dias” em uma guerra. “Existe um gargalo humano”, argumentou ele, “tanto na localização dos novos alvos quanto na tomada de decisões para aprová-los”.

Na prática, todos estes debates estão sendo substituídos por acontecimentos. Nem a Rússia nem a Ucrânia prestam muita atenção ao fato de um drone ser um sistema de armas “autônomo” ou meramente “automatizado”. Sua prioridade é construir armas que possam escapar do bloqueio e destruir o máximo possível de blindados inimigos. Os falsos positivos não são uma grande preocupação para um exército russo que bombardeou mais de 1.000 instalações de saúde ucranianas até agora, nem para um exército ucraniano que luta pela sua sobrevivência.

Paira também sobre este debate o espectro de uma guerra envolvendo grandes potências. Os países da Otan sabem que poderão ter de enfrentar um exército russo que poderá, quando a presente guerra terminar, ter uma vasta experiência na construção de armas de IA e em testá-las no campo de batalha. A China também está desenvolvendo muitas das mesmas tecnologias que os EUA. As empresas chinesas fabricam a grande maioria dos drones vendidos nos Estados Unidos, seja como bens de consumo ou para fins industriais. O relatório anual do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (PLA) começou a falar em uma “Guerra de Precisão MultiDomínio”: o uso de “big data e inteligência artificial para identificar rapidamente as principais vulnerabilidades” em sistemas militares americanos, como satélites ou redes de computadores, que poderiam então ser atacadas.

Relatório do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (foto) começou a falar em uma 'Guerra de Precisão MultiDomínio'. Foto: Tingshu Wang/REUTERS

A questão é quem está em vantagem. As autoridades americanas já se preocuparam com o fato de as regras de privacidade frouxas da China e o controle do setor privado darem ao país acesso a mais e melhores dados, o que resultaria em algoritmos e armas superiores. Essas preocupações diminuíram. Um estudo recente de dados de aquisições realizado pelo Centro de Segurança e Tecnologia Emergente (CSET) da Universidade Georgetown concluiu que EUA e China estão “dedicando níveis comparáveis de atenção a um conjunto semelhante de aplicações de IA”.

Além disso, os EUA avançaram em modelos de ponta, em parte graças às restrições ao comércio de chips. Em 2023, o país produziu 61 modelos notáveis de aprendizado de máquina, e a Europa, 25, de acordo com a Epoch AI, uma empresa de dados. A China produziu 15. Estes não são os modelos dos sistemas militares atuais, mas servirão de base aos futuros. “A China enfrenta ventos contrários significativos na… IA militar”, argumenta Sam Bresnick, do CSET. Não está claro se o PLA tem o talento tecnológico para criar sistemas de nível mundial, salienta ele, e a sua tomada de decisão centralizada pode impedir o apoio da IA à tomada de decisões. Muitos especialistas chineses também estão preocupados com a IA “não confiável”. “O PLA possui bastante poder militar letal”, observa Jacob Stokes, do CNAS, outro centro de estudos estratégicos, “mas, neste momento, nada parece ter níveis significativos de autonomia possibilitados pela IA”.

A aparente lentidão da China faz parte de um padrão mais amplo. Alguns, como Kenneth Payne, da King’s College London, pensam que a IA transformará não apenas a condução da guerra, mas a sua natureza essencial. “Esta fusão de inteligência de máquina e humana anunciaria uma era genuinamente nova de tomada de decisões na guerra”, prevê ele. “Talvez a mudança mais revolucionária desde a descoberta da escrita, há vários milhares de anos.” Mas, mesmo que tais afirmações se tornem mais plausíveis, a transformação permanece teimosamente distante em muitos aspectos.

“A ironia aqui é que falamos como se a IA estivesse em toda parte na defesa, quando não está quase em lugar nenhum”, observa Sir Chris Deverell, um general britânico da reserva. “A penetração da IA no Ministério da Defesa do Reino Unido é quase zero… Há muito teatro de inovação.” Um alto funcionário do Pentágono diz que o departamento fez grandes progressos na melhoria da sua infraestrutura de dados (os tubos ao longo dos quais os dados se movem) e em aeronaves não tripuladas que trabalham ao lado de aviões de guerra tripulados. Mesmo assim, o Pentágono gasta menos de 1% do seu orçamento em software, uma estatística frequentemente divulgada por executivos de startups de tecnologia de defesa. “O que é único [no Pentágono] é que a nossa missão envolve o uso da força, por isso os riscos são elevados”, afirma o responsável. “Temos que adotar a IA de forma rápida e segura.”

Enquanto isso, o StormCloud do Reino Unido está ficando “cada vez melhor”, diz um responsável envolvido no seu desenvolvimento, mas o projeto avançou lentamente por causa da dinâmica política interna e da burocracia em torno do credenciamento de novas tecnologias. O financiamento para sua segunda iteração foi de insignificantes £ 10 milhões, café pequeno no mundo da defesa. O plano é utilizá-lo em diversos exercícios este ano. “Se fôssemos a Ucrânia ou se estivéssemos genuinamente preocupados com a possibilidade de entrar em guerra em um futuro próximo”, diz o oficial, “teríamos gasto mais de 100 milhões de libras e o teríamos implantado em semanas ou meses”./TRADUÇÃO DE AUGUSTO CALIL.

No fim de 2021, a Marinha Real procurou a Microsoft e a Amazon Web Services, duas gigantes americanas da tecnologia, com uma pergunta: haveria uma maneira melhor de guerrear? Mais especificamente, poderiam elas encontrar uma forma mais eficaz de coordenação entre uma hipotética equipe de ataque no Caribe e os sistemas de mísseis de uma fragata?

As empresas de tecnologia colaboraram com a BAE Systems, uma gigante fabricante de armas, e a Anduril, uma empresa iniciante de menor porte, entre outros fornecedores militares. No espaço de 12 semanas, um intervalo incrivelmente rápido no universo das aquisições de defesa, o consórcio se reuniu em Somerset, no Reino Unido, para uma demonstração do que foi apelidado de StormCloud.

Fuzileiros navais no solo, drones no ar e muitos outros sensores foram conectados por meio de uma rede no estilo “mesh” de rádios avançados que permitia a cada um ver, continuamente, o que estava acontecendo em outros lugares, uma configuração que já havia permitido aos fuzileiros navais bater forças muito maiores em exercícios anteriores.

Os dados recolhidos foram processados tanto na “borda” da rede, a bordo de computadores pequenos e robustos amarrados aos veículos dos comandos com cabos elásticos, como em servidores de nuvem distantes, para onde foram enviados por satélite. O software de comando e controle monitorou uma área designada, decidiu quais drones deveriam voar para onde, identificou objetos no solo e sugeriu qual armamento usar para atacar qual alvo.

Os resultados foram impressionantes. Ficou evidente que o StormCloud era a “cadeia de destruição mais avançada do mundo”, diz um oficial envolvido no experimento, referindo-se a uma rede de sensores (como drones) e armas (como mísseis) interligados com redes digitais e software para dar sentido aos dados fluindo de um lado para outro. Mesmo há dois anos, em termos de velocidade e confiabilidade, diz ele, o sistema estava “quilômetros à frente” dos oficiais humanos em um quartel-general convencional.

Estudo descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c (foto), poderia poupar à Força Aérea dos EUA US$ 25 milhões por mês Foto: Ints Kalnins/Reuters

Ferramentas e armas habilitadas para inteligência artificial (IA) não estão sendo utilizadas apenas em exercícios. São também utilizadas em uma escala crescente em locais como Gaza e a Ucrânia. As forças armadas enxergam oportunidades notáveis. Elas também temem ser deixadas para trás pelos adversários. A despesa está aumentando rapidamente. Mas advogados e especialistas em ética temem que a IA torne a guerra mais rápida, mais opaca e menos humana. O fosso entre os dois grupos está aumentando, mesmo em um momento em que se torna cada vez mais concreta a perspectiva de uma guerra entre grandes potências.

Não existe uma definição única de IA. Coisas que outrora teriam merecido esse termo, como a navegação de mapeamento de relevo dos mísseis Tomahawk na década de 1980 ou as capacidades de detecção de tanques dos mísseis Brimstone no início da década de 2000, são agora vistas como software de trabalho. E muitas capacidades de ponta descritas como IA não envolvem o tipo de “aprendizado profundo” e grandes modelos de linguagem que sustentam serviços como o ChatGPT. Mas, sob vários disfarces, a IA está se infiltrando em todos os aspectos da guerra.

MelhorIAs

Isso começa com a parte chata: manutenção, logística, pessoal e outras tarefas necessárias para manter os exércitos equipados, alimentados e abastecidos. Um estudo recente realizado pelo centro de estudos estratégicos Rand Corporation descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c, poderia poupar à Força Aérea dos Estados Unidos US$ 25 milhões por mês, evitando avarias e excesso de estoque de peças (embora a IA tenha feito um trabalho pior com peças que raramente quebravam). A logística é outra área promissora. O Exército dos EUA está utilizando algoritmos para prever quando os obuses ucranianos necessitarão de novos canhões, por exemplo. A IA também está começando a chegar ao RH. O exército está usando um modelo treinado com 140 mil arquivos de pessoal para ajudar a selecionar soldados para promoção.

No outro extremo está a extremidade afiada da coisa. Tanto a Rússia como a Ucrânia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma, mesmo que a interferência interrompa a conexão entre o piloto e o drone. Ambos os lados normalmente usam pequenos chips para essa finalidade, que podem custar apenas US$ 100.

Vídeos de ataques de drones na Ucrânia mostram cada vez mais “caixas delimitadoras” aparecendo em torno de objetos, sugerindo que o drone está identificando um alvo e travando nele. A tecnologia permanece imatura, com os algoritmos de mira enfrentando muitos dos mesmos problemas enfrentados pelos carros autônomos, como ambientes complexos e objetos ocultos, e alguns problemas exclusivos do campo de batalha, como fumaça e iscas. Mas ela está melhorando rapidamente.

Entre a IA no back-end e a IA dentro das munições há um vasto universo de inovação, experimentação e avanços tecnológicos. Os drones, por si só, estão apenas perturbando a guerra, em vez de transformá-la, argumentam Clint Hinote, um general da reserva da força aérea americana, e Mick Ryan, um general australiano da reserva. Mas, quando combinado, com “sistemas de comando e controle digitalizados” (como o StormCloud) e “redes mesh da nova era de sensores civis e militares”, o resultado, dizem eles, é uma “trindade transformadora” que permite aos soldados na linha de frente ver e agir com base em informações em tempo real que antes estariam confinadas a uma sede distante.

A IA é um pré-requisito para isso. Comecemos com a rede mesh de sensores. Imagine dados de drones, satélites, redes sociais e outras fontes circulando por uma rede militar. Há muito para ser processado manualmente. Tamir Hayman, general que liderou a inteligência militar israelita até 2021, aponta dois grandes avanços. O “salto fundamental”, diz ele, oito ou nove anos atrás, ocorreu no software de conversão de voz em texto que permitia a busca por palavras-chave em interceptações de voz. O outro estava na visão computacional.

O projeto Spotter, do Ministério da Defesa britânico, já está utilizando redes neurais para a “detecção e identificação automatizada de objetos” em imagens de satélite, permitindo que os locais sejam “monitorizados automaticamente 24 horas por dia, 7 dias por semana, em busca de alterações na atividade”. Até fevereiro, uma empresa privada rotulou 25 mil objetos para treinar o modelo.

Tom Copinger-Symes, um general britânico, disse à Câmara dos Lordes no ano passado que tais sistemas “ainda estavam nos limites superiores da pesquisa e desenvolvimento, e não em fase de implantação em grande escala”, embora tenha apontado para a utilização de ferramentas comerciais para identificar, por exemplo, grupos de civis durante a retirada dos cidadãos britânicos do Sudão no início de 2023. Os EUA parecem estar mais adiantados. O país iniciou o projeto Maven em 2017 para lidar com o dilúvio de fotos e vídeos feitos por drones no Afeganistão e no Iraque.

O Maven “já está produzindo grandes volumes de detecções de visão computacional para as necessidades dos combatentes”, observou em maio o diretor da Agência Nacional de Inteligência Geoespacial, que administra o projeto. O objetivo declarado é que o Maven “atenda ou exceda o desempenho humano de detecção, classificação e rastreamento”.

Ele ainda não chegou lá: enfrenta dificuldades com casos complicados, como armas parcialmente escondidas. Mas o rastreador de incêndios relacionados com a guerra na Ucrânia, da The Economist, é baseado no aprendizado de máquina, é totalmente automatizado e funciona em uma escala que os jornalistas não conseguem igualar. Já detectou 93 mil incêndios provavelmente relacionados à guerra.

Militar ucraniano opera drone em Zaporizhzhia. A Ucrânia e a Rússia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma. Foto: Andriy Andriyenko/AP

A IA pode processar mais do que chamadas telefônicas ou fotos. Em março, a Marinha Real anunciou que sua unidade caça-minas tinha completado um ano de experiências no Golfo Pérsico utilizando um pequeno barco autônomo, o Harrier, cujo sistema de sonar rebocado poderia procurar minas no fundo do mar e alertar outros navios ou unidades em terra. E Michael Horowitz, um funcionário do Pentágono, disse recentemente ao site Defense News que os EUA, a Austrália e a Reino Unido, como parte do seu pacto Aukus, desenvolveram um “algoritmo trilateral” que poderia ser usado para processar os dados acústicos recolhidos pelos sonares flutuantes lançados das aeronaves caça-submarino P-8 de cada país.

Na maioria desses casos, a IA está identificando um sinal em meio ao ruído ou um objeto em meio a alguma bagunça: é um caminhão ou um tanque? Uma âncora ou uma mina? Uma traineira ou um submarino? Identificar combatentes humanos é talvez mais complicado e, certamente, mais controverso. Em abril, a +972 Magazine, um meio de comunicação israelense, afirmou que as Forças de Defesa de Israel (IFD) estavam utilizando uma ferramenta de IA conhecida como Lavender para identificar milhares de palestinos como alvos, com operadores humanos apenas supervisionando os resultados do sistema antes de ordenarem ataques. O IDF respondeu que o Lavender era “simplesmente um banco de dados cujo objetivo é cruzar referências de fontes de inteligência”.

Na prática, o Lavender provavelmente será o que os especialistas chamam de sistema de apoio à decisão (DSS), uma ferramenta para fundir diferentes dados, como registros telefônicos, imagens de satélite e outras informações. A utilização de sistemas de informática pelos Estados Unidos para processar dados acústicos e olfativos provenientes de sensores no Vietnã pode ser considerada uma forma primitiva de DSS. Rupert Barrett-Taylor, do Instituto Alan Turing, em Londres, observa que o mesmo aconteceria com o software usado por espiões e forças especiais americanas na guerra contra o terrorismo, que transformava registros telefônicos e outros dados em enormes gráficos em forma de aranha para visualizar as conexões entre pessoas e locais, com o objetivo de identificar insurgentes ou terroristas.

Identificar ou explicar?

A diferença é que o software atual se beneficia de um maior poder computacional, de algoritmos mais sofisticados (os avanços nas redes neurais ocorreram apenas em 2012) e de mais dados, por causa da proliferação de sensores. O resultado não é apenas uma inteligência mais farta ou melhor. É uma indefinição da linha entre inteligência, vigilância e reconhecimento (ISR) e comando e controle (C2): entre dar sentido aos dados e agir com base neles.

Tomemos como exemplo o software GIS Arta, da Ucrânia, que recolhe dados a respeito de alvos russos, normalmente para baterias de artilharia. Ele já é capaz de gerar listas de alvos potenciais “de acordo com as prioridades do comandante”, escrevem os generais Hinote e Ryan. Uma das razões pelas quais a pontaria russa na Ucrânia melhorou nos meses mais recentes, dizem as autoridades, é que os sistemas de C2 da Rússia estão melhorando no processamento de informações provenientes de drones e no envio das mesmas para o seu armamento. “De acordo com algumas estimativas”, escreve Arthur Holland Michel em um documento para o Comitê Internacional da Cruz Vermelha (CICV), uma organização humanitária, “uma atividade de busca, reconhecimento e análise de alvos que anteriormente demorava horas poderia ser reduzida… a minutos”.

A Força Aérea dos EUA pediu recentemente à Rand Corporation que avaliasse se as ferramentas de IA poderiam fornecer opções para um “combatente espacial” enfrentando uma ameaça que se aproxima de um satélite. A conclusão foi que a IA poderia de fato recomendar respostas de “alta qualidade”. Da mesma forma, a Darpa, o braço de pesquisa do Pentágono, está trabalhando em um programa chamado, ironicamente, de Máquina do Caos Estratégico para Planejamento, Tática, Experimentação e Resiliência (Scepter), para produzir recomendações de ações para comandantes durante “engajamentos militares em alta velocidade de máquina”. Em essência, o sistema é capaz de gerar novos planos de guerra em tempo real.

“Muitos dos métodos que estão sendo utilizados” no Scepter e em projetos semelhantes da Darpa “nem existiam há dois ou cinco anos”, diz Eric Davis, gestor de programas da agência. Ele aponta para o exemplo da “teoria do operador de Koopman”, uma estrutura matemática antiga e obscura que pode ser usada para analisar sistemas complexos e não lineares, como os encontrados na guerra, em termos de álgebra linear mais simples. Avanços recentes na sua aplicação tornaram vários problemas de IA mais tratáveis.

ElogIAr e criticar

O resultado de tudo isto é um crescente abismo intelectual entre aqueles cuja função é travar a guerra e aqueles que procuram domá-la. Especialistas jurídicos e especialistas em ética argumentam que o papel crescente da IA na guerra está repleto de perigos. “Os sistemas que temos agora são incapazes de reconhecer intenções hostis”, argumenta Noam Lubell, da Universidade de Essex. “Eles não conseguem distinguir entre um soldado baixo com uma arma de verdade e uma criança com uma arma de brinquedo... ou entre um soldado ferido caído sobre um rifle e um atirador pronto para atirar com um rifle de alta precisão.” Tais algoritmos “não podem ser usados legalmente”, conclui. As redes neurais também podem ser enganadas com muita facilidade, diz Stuart Russell, um cientista da computação: “Você poderia então pegar objetos perfeitamente inocentes, como postes de luz, e imprimir neles padrões que convenceriam a arma de que se trata de um tanque”.

Os defensores da IA militar respondem que os céticos têm uma visão muito otimista da guerra. Um drone de ataque à procura de um objeto específico pode não ser capaz de reconhecer, e muito menos respeitar, uma tentativa de rendição, reconhece um antigo oficial britânico envolvido na política de IA. Mas, se a alternativa for um bombardeio intenso, “de qualquer forma, não há rendição nessa circunstância”. Keith Dear, ex-oficial da Força Aérea Real que agora trabalha para a Fujitsu, uma empresa japonesa, vai além. “Se…as máquinas produzem uma taxa de falsos positivos e falsos negativos mais baixa do que os humanos, especialmente sob pressão, seria antiético não delegar autoridade”, argumenta. “Fizemos vários tipos de testes onde comparamos as capacidades e os feitos da máquina e as do ser humano”, diz o General Hayman, das IDF. “A maioria dos testes revela que a máquina é muito, muito, muito mais precisa... na maioria dos casos não há comparação.”

O Pentágono (foto) está trabalhando em um programa que é capaz de gerar novos planos de guerra em tempo real. Foto: Charles Dharapak/AP/Arquivo

Uma falácia envolve extrapolar a partir das campanhas de combate ao terrorismos dos anos 2000. “O futuro não consiste em reconhecer o rosto de um sujeito e atirar nele a 3.000 metros de altura”, argumenta Palmer Luckey, fundador da Anduril, uma das empresas envolvidas no StormCloud. “Trata-se de tentar abater uma frota de embarcações anfíbias de desembarque no Estreito de Taiwan.” Se um objeto tem a assinatura visual, eletrônica e térmica de um lançador de mísseis, ele argumenta: “Você simplesmente não pode estar errado... é um sinal incrivelmente único”. A geração de modelos pré-guerra reduz ainda mais a incerteza: “99% do que se vê acontecer no conflito na China terá sido executado em uma simulação múltiplas vezes”, diz Luckey, “muito antes de acontecer”.

“O problema é que, quando a máquina comete erros, são erros horríveis”, diz o general Hayman. “Se aceitos, eles levariam a eventos traumáticos.” Ele, portanto, se opõe a tirar o ser humano do circuito e a automatizar completamente os ataques. “É realmente tentador”, reconhece. “É algo que aceleraria o procedimento de uma forma sem precedentes. Mas poderíamos violar assim o direito internacional.” Luckey admite que a IA será menos relevante no trabalho “sujo, confuso e horrível” da guerra urbana ao estilo de Gaza. “Se as pessoas imaginam que haverá robôs ao estilo do Exterminador do Futuro procurando o Muhammad certo e atirando nele… não é assim que vai funcionar.”

Por seu lado, o CICV alerta que os sistemas de IA são potencialmente imprevisíveis, opacos e sujeitos ao enviesamento, mas aceita que “podem facilitar uma coleta e análise mais rápida e mais ampla da informação disponível...minimizando os riscos para os civis”. Muito depende de como as ferramentas são usadas. Se as IDF empregaram o Lavender conforme relatado, isso sugere que o problema eram as regras de engajamento excessivamente expansivas e os operadores desatentos, e não alguma patologia do software em si.

Durante muitos anos, especialistas e diplomatas têm discutido nas Nações Unidas a respeito da possibilidade de restringir ou proibir os sistemas de armas autônomos (AWS). Mas até defini-los é difícil. O CICV diz que AWS são aqueles armamentos que escolhem um alvo com base em um perfil geral: qualquer tanque, digamos, em vez de um tanque específico. Isso incluiria muitos dos drones usados na Ucrânia. O CICV é a favor da proibição de AWS que tenham como alvo pessoas ou que se comportem de forma imprevisível. O Reino Unido responde que as armas “totalmente” autônomas são aquelas que identificam, selecionam e atacam alvos sem “envolvimento humano adequado ao contexto”, um critério muito mais elevado. O Pentágono tem uma opinião semelhante, enfatizando “níveis apropriados de julgamento humano”.

Definir isso, por sua vez, é terrivelmente difícil. E isso não tem a ver apenas com o ato letal, mas com o que vem antes dele. Um drone de ataque altamente autônomo pode aparentar carecer de controle humano. Mas, se o seu comportamento for bem compreendido e for utilizado em uma área onde se sabe que há alvos militares legítimos, e não há civis, talvez os problemas sejam poucos. Por outro lado, uma ferramenta que apenas sugere alvos pode parecer mais benigna. Mas os comandantes que aprovam manualmente alvos individuais sugeridos pela ferramenta “sem clareza ou consciência cognitiva”, como afirma o Article 36, um grupo de defesa dos direitos, ou em outras palavras, apertando inconscientemente o botão vermelho, delegaram a responsabilidade moral para uma máquina.

O dilema deve piorar por dois motivos. Uma é que a IA gera mais IA. Se um exército estiver usando IA para localizar e atingir alvos mais rapidamente, o outro lado poderá ser forçado a recorrer à IA para acompanhar. Esse já é o caso quando se trata de defesa aérea, onde o software avançado tem sido essencial para rastrear ameaças desde o início da era da informática. A outra razão é que será mais difícil para os utilizadores humanos compreender o comportamento e as limitações dos sistemas militares. O aprendizado de máquina moderno ainda não é amplamente utilizado em sistemas “críticos” de apoio à decisão, observa Holland Michel. Mas será. E esses sistemas realizarão “tarefas mais difíceis de definir matematicamente”, observa ele, como prever a intenção futura de um adversário ou mesmo o seu estado emocional.

Fala-se até em usar IA na tomada de decisões nucleares. A ideia é que os países possam não só fundir dados para acompanhar as ameaças (como tem acontecido desde a década de 1950), mas também retaliar automaticamente se a liderança política for morta em um primeiro ataque. A União Soviética trabalhou neste tipo de conceito de “mão morta” durante a Guerra Fria como parte do seu sistema “Perimetr”. Ele continua em uso, e agora há rumores de que dependa de software baseado em IA, observa Leonid Ryabikhin, ex-oficial da força aérea soviética e especialista em controle de armas. Em 2023, um grupo de senadores americanos chegou a apresentar um novo projeto de lei: a “Lei de Bloqueio de Lançamento Nuclear por Inteligência Artificial Autônoma”. Esta é, naturalmente, uma área secreta, e pouco se sabe sobre até onde os diferentes países querem ir. Mas a questão é suficientemente importante para ter estado no topo da pauta das conversações presidenciais do ano passado entre Joe Biden e Xi Jinping.

Seguir no topo

No momento, nas guerras convencionais, “quase sempre há tempo para alguém dizer sim ou não”, diz um oficial britânico. “Não há necessidade de automação de toda a cadeia de destruição, e o processo não está em vias de adoção.” Se isso seria verdade em uma guerra de alta intensidade com a Rússia ou a China é menos claro. Em The Human Machine Team, um livro publicado sob pseudônimo em 2021, o brigadeiro-general Yossi Sariel, chefe de uma unidade de inteligência militar de elite israelense, escreveu que uma “equipe homem-máquina” habilitada com IA poderia gerar “milhares de novos alvos todos os dias” em uma guerra. “Existe um gargalo humano”, argumentou ele, “tanto na localização dos novos alvos quanto na tomada de decisões para aprová-los”.

Na prática, todos estes debates estão sendo substituídos por acontecimentos. Nem a Rússia nem a Ucrânia prestam muita atenção ao fato de um drone ser um sistema de armas “autônomo” ou meramente “automatizado”. Sua prioridade é construir armas que possam escapar do bloqueio e destruir o máximo possível de blindados inimigos. Os falsos positivos não são uma grande preocupação para um exército russo que bombardeou mais de 1.000 instalações de saúde ucranianas até agora, nem para um exército ucraniano que luta pela sua sobrevivência.

Paira também sobre este debate o espectro de uma guerra envolvendo grandes potências. Os países da Otan sabem que poderão ter de enfrentar um exército russo que poderá, quando a presente guerra terminar, ter uma vasta experiência na construção de armas de IA e em testá-las no campo de batalha. A China também está desenvolvendo muitas das mesmas tecnologias que os EUA. As empresas chinesas fabricam a grande maioria dos drones vendidos nos Estados Unidos, seja como bens de consumo ou para fins industriais. O relatório anual do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (PLA) começou a falar em uma “Guerra de Precisão MultiDomínio”: o uso de “big data e inteligência artificial para identificar rapidamente as principais vulnerabilidades” em sistemas militares americanos, como satélites ou redes de computadores, que poderiam então ser atacadas.

Relatório do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (foto) começou a falar em uma 'Guerra de Precisão MultiDomínio'. Foto: Tingshu Wang/REUTERS

A questão é quem está em vantagem. As autoridades americanas já se preocuparam com o fato de as regras de privacidade frouxas da China e o controle do setor privado darem ao país acesso a mais e melhores dados, o que resultaria em algoritmos e armas superiores. Essas preocupações diminuíram. Um estudo recente de dados de aquisições realizado pelo Centro de Segurança e Tecnologia Emergente (CSET) da Universidade Georgetown concluiu que EUA e China estão “dedicando níveis comparáveis de atenção a um conjunto semelhante de aplicações de IA”.

Além disso, os EUA avançaram em modelos de ponta, em parte graças às restrições ao comércio de chips. Em 2023, o país produziu 61 modelos notáveis de aprendizado de máquina, e a Europa, 25, de acordo com a Epoch AI, uma empresa de dados. A China produziu 15. Estes não são os modelos dos sistemas militares atuais, mas servirão de base aos futuros. “A China enfrenta ventos contrários significativos na… IA militar”, argumenta Sam Bresnick, do CSET. Não está claro se o PLA tem o talento tecnológico para criar sistemas de nível mundial, salienta ele, e a sua tomada de decisão centralizada pode impedir o apoio da IA à tomada de decisões. Muitos especialistas chineses também estão preocupados com a IA “não confiável”. “O PLA possui bastante poder militar letal”, observa Jacob Stokes, do CNAS, outro centro de estudos estratégicos, “mas, neste momento, nada parece ter níveis significativos de autonomia possibilitados pela IA”.

A aparente lentidão da China faz parte de um padrão mais amplo. Alguns, como Kenneth Payne, da King’s College London, pensam que a IA transformará não apenas a condução da guerra, mas a sua natureza essencial. “Esta fusão de inteligência de máquina e humana anunciaria uma era genuinamente nova de tomada de decisões na guerra”, prevê ele. “Talvez a mudança mais revolucionária desde a descoberta da escrita, há vários milhares de anos.” Mas, mesmo que tais afirmações se tornem mais plausíveis, a transformação permanece teimosamente distante em muitos aspectos.

“A ironia aqui é que falamos como se a IA estivesse em toda parte na defesa, quando não está quase em lugar nenhum”, observa Sir Chris Deverell, um general britânico da reserva. “A penetração da IA no Ministério da Defesa do Reino Unido é quase zero… Há muito teatro de inovação.” Um alto funcionário do Pentágono diz que o departamento fez grandes progressos na melhoria da sua infraestrutura de dados (os tubos ao longo dos quais os dados se movem) e em aeronaves não tripuladas que trabalham ao lado de aviões de guerra tripulados. Mesmo assim, o Pentágono gasta menos de 1% do seu orçamento em software, uma estatística frequentemente divulgada por executivos de startups de tecnologia de defesa. “O que é único [no Pentágono] é que a nossa missão envolve o uso da força, por isso os riscos são elevados”, afirma o responsável. “Temos que adotar a IA de forma rápida e segura.”

Enquanto isso, o StormCloud do Reino Unido está ficando “cada vez melhor”, diz um responsável envolvido no seu desenvolvimento, mas o projeto avançou lentamente por causa da dinâmica política interna e da burocracia em torno do credenciamento de novas tecnologias. O financiamento para sua segunda iteração foi de insignificantes £ 10 milhões, café pequeno no mundo da defesa. O plano é utilizá-lo em diversos exercícios este ano. “Se fôssemos a Ucrânia ou se estivéssemos genuinamente preocupados com a possibilidade de entrar em guerra em um futuro próximo”, diz o oficial, “teríamos gasto mais de 100 milhões de libras e o teríamos implantado em semanas ou meses”./TRADUÇÃO DE AUGUSTO CALIL.

No fim de 2021, a Marinha Real procurou a Microsoft e a Amazon Web Services, duas gigantes americanas da tecnologia, com uma pergunta: haveria uma maneira melhor de guerrear? Mais especificamente, poderiam elas encontrar uma forma mais eficaz de coordenação entre uma hipotética equipe de ataque no Caribe e os sistemas de mísseis de uma fragata?

As empresas de tecnologia colaboraram com a BAE Systems, uma gigante fabricante de armas, e a Anduril, uma empresa iniciante de menor porte, entre outros fornecedores militares. No espaço de 12 semanas, um intervalo incrivelmente rápido no universo das aquisições de defesa, o consórcio se reuniu em Somerset, no Reino Unido, para uma demonstração do que foi apelidado de StormCloud.

Fuzileiros navais no solo, drones no ar e muitos outros sensores foram conectados por meio de uma rede no estilo “mesh” de rádios avançados que permitia a cada um ver, continuamente, o que estava acontecendo em outros lugares, uma configuração que já havia permitido aos fuzileiros navais bater forças muito maiores em exercícios anteriores.

Os dados recolhidos foram processados tanto na “borda” da rede, a bordo de computadores pequenos e robustos amarrados aos veículos dos comandos com cabos elásticos, como em servidores de nuvem distantes, para onde foram enviados por satélite. O software de comando e controle monitorou uma área designada, decidiu quais drones deveriam voar para onde, identificou objetos no solo e sugeriu qual armamento usar para atacar qual alvo.

Os resultados foram impressionantes. Ficou evidente que o StormCloud era a “cadeia de destruição mais avançada do mundo”, diz um oficial envolvido no experimento, referindo-se a uma rede de sensores (como drones) e armas (como mísseis) interligados com redes digitais e software para dar sentido aos dados fluindo de um lado para outro. Mesmo há dois anos, em termos de velocidade e confiabilidade, diz ele, o sistema estava “quilômetros à frente” dos oficiais humanos em um quartel-general convencional.

Estudo descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c (foto), poderia poupar à Força Aérea dos EUA US$ 25 milhões por mês Foto: Ints Kalnins/Reuters

Ferramentas e armas habilitadas para inteligência artificial (IA) não estão sendo utilizadas apenas em exercícios. São também utilizadas em uma escala crescente em locais como Gaza e a Ucrânia. As forças armadas enxergam oportunidades notáveis. Elas também temem ser deixadas para trás pelos adversários. A despesa está aumentando rapidamente. Mas advogados e especialistas em ética temem que a IA torne a guerra mais rápida, mais opaca e menos humana. O fosso entre os dois grupos está aumentando, mesmo em um momento em que se torna cada vez mais concreta a perspectiva de uma guerra entre grandes potências.

Não existe uma definição única de IA. Coisas que outrora teriam merecido esse termo, como a navegação de mapeamento de relevo dos mísseis Tomahawk na década de 1980 ou as capacidades de detecção de tanques dos mísseis Brimstone no início da década de 2000, são agora vistas como software de trabalho. E muitas capacidades de ponta descritas como IA não envolvem o tipo de “aprendizado profundo” e grandes modelos de linguagem que sustentam serviços como o ChatGPT. Mas, sob vários disfarces, a IA está se infiltrando em todos os aspectos da guerra.

MelhorIAs

Isso começa com a parte chata: manutenção, logística, pessoal e outras tarefas necessárias para manter os exércitos equipados, alimentados e abastecidos. Um estudo recente realizado pelo centro de estudos estratégicos Rand Corporation descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c, poderia poupar à Força Aérea dos Estados Unidos US$ 25 milhões por mês, evitando avarias e excesso de estoque de peças (embora a IA tenha feito um trabalho pior com peças que raramente quebravam). A logística é outra área promissora. O Exército dos EUA está utilizando algoritmos para prever quando os obuses ucranianos necessitarão de novos canhões, por exemplo. A IA também está começando a chegar ao RH. O exército está usando um modelo treinado com 140 mil arquivos de pessoal para ajudar a selecionar soldados para promoção.

No outro extremo está a extremidade afiada da coisa. Tanto a Rússia como a Ucrânia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma, mesmo que a interferência interrompa a conexão entre o piloto e o drone. Ambos os lados normalmente usam pequenos chips para essa finalidade, que podem custar apenas US$ 100.

Vídeos de ataques de drones na Ucrânia mostram cada vez mais “caixas delimitadoras” aparecendo em torno de objetos, sugerindo que o drone está identificando um alvo e travando nele. A tecnologia permanece imatura, com os algoritmos de mira enfrentando muitos dos mesmos problemas enfrentados pelos carros autônomos, como ambientes complexos e objetos ocultos, e alguns problemas exclusivos do campo de batalha, como fumaça e iscas. Mas ela está melhorando rapidamente.

Entre a IA no back-end e a IA dentro das munições há um vasto universo de inovação, experimentação e avanços tecnológicos. Os drones, por si só, estão apenas perturbando a guerra, em vez de transformá-la, argumentam Clint Hinote, um general da reserva da força aérea americana, e Mick Ryan, um general australiano da reserva. Mas, quando combinado, com “sistemas de comando e controle digitalizados” (como o StormCloud) e “redes mesh da nova era de sensores civis e militares”, o resultado, dizem eles, é uma “trindade transformadora” que permite aos soldados na linha de frente ver e agir com base em informações em tempo real que antes estariam confinadas a uma sede distante.

A IA é um pré-requisito para isso. Comecemos com a rede mesh de sensores. Imagine dados de drones, satélites, redes sociais e outras fontes circulando por uma rede militar. Há muito para ser processado manualmente. Tamir Hayman, general que liderou a inteligência militar israelita até 2021, aponta dois grandes avanços. O “salto fundamental”, diz ele, oito ou nove anos atrás, ocorreu no software de conversão de voz em texto que permitia a busca por palavras-chave em interceptações de voz. O outro estava na visão computacional.

O projeto Spotter, do Ministério da Defesa britânico, já está utilizando redes neurais para a “detecção e identificação automatizada de objetos” em imagens de satélite, permitindo que os locais sejam “monitorizados automaticamente 24 horas por dia, 7 dias por semana, em busca de alterações na atividade”. Até fevereiro, uma empresa privada rotulou 25 mil objetos para treinar o modelo.

Tom Copinger-Symes, um general britânico, disse à Câmara dos Lordes no ano passado que tais sistemas “ainda estavam nos limites superiores da pesquisa e desenvolvimento, e não em fase de implantação em grande escala”, embora tenha apontado para a utilização de ferramentas comerciais para identificar, por exemplo, grupos de civis durante a retirada dos cidadãos britânicos do Sudão no início de 2023. Os EUA parecem estar mais adiantados. O país iniciou o projeto Maven em 2017 para lidar com o dilúvio de fotos e vídeos feitos por drones no Afeganistão e no Iraque.

O Maven “já está produzindo grandes volumes de detecções de visão computacional para as necessidades dos combatentes”, observou em maio o diretor da Agência Nacional de Inteligência Geoespacial, que administra o projeto. O objetivo declarado é que o Maven “atenda ou exceda o desempenho humano de detecção, classificação e rastreamento”.

Ele ainda não chegou lá: enfrenta dificuldades com casos complicados, como armas parcialmente escondidas. Mas o rastreador de incêndios relacionados com a guerra na Ucrânia, da The Economist, é baseado no aprendizado de máquina, é totalmente automatizado e funciona em uma escala que os jornalistas não conseguem igualar. Já detectou 93 mil incêndios provavelmente relacionados à guerra.

Militar ucraniano opera drone em Zaporizhzhia. A Ucrânia e a Rússia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma. Foto: Andriy Andriyenko/AP

A IA pode processar mais do que chamadas telefônicas ou fotos. Em março, a Marinha Real anunciou que sua unidade caça-minas tinha completado um ano de experiências no Golfo Pérsico utilizando um pequeno barco autônomo, o Harrier, cujo sistema de sonar rebocado poderia procurar minas no fundo do mar e alertar outros navios ou unidades em terra. E Michael Horowitz, um funcionário do Pentágono, disse recentemente ao site Defense News que os EUA, a Austrália e a Reino Unido, como parte do seu pacto Aukus, desenvolveram um “algoritmo trilateral” que poderia ser usado para processar os dados acústicos recolhidos pelos sonares flutuantes lançados das aeronaves caça-submarino P-8 de cada país.

Na maioria desses casos, a IA está identificando um sinal em meio ao ruído ou um objeto em meio a alguma bagunça: é um caminhão ou um tanque? Uma âncora ou uma mina? Uma traineira ou um submarino? Identificar combatentes humanos é talvez mais complicado e, certamente, mais controverso. Em abril, a +972 Magazine, um meio de comunicação israelense, afirmou que as Forças de Defesa de Israel (IFD) estavam utilizando uma ferramenta de IA conhecida como Lavender para identificar milhares de palestinos como alvos, com operadores humanos apenas supervisionando os resultados do sistema antes de ordenarem ataques. O IDF respondeu que o Lavender era “simplesmente um banco de dados cujo objetivo é cruzar referências de fontes de inteligência”.

Na prática, o Lavender provavelmente será o que os especialistas chamam de sistema de apoio à decisão (DSS), uma ferramenta para fundir diferentes dados, como registros telefônicos, imagens de satélite e outras informações. A utilização de sistemas de informática pelos Estados Unidos para processar dados acústicos e olfativos provenientes de sensores no Vietnã pode ser considerada uma forma primitiva de DSS. Rupert Barrett-Taylor, do Instituto Alan Turing, em Londres, observa que o mesmo aconteceria com o software usado por espiões e forças especiais americanas na guerra contra o terrorismo, que transformava registros telefônicos e outros dados em enormes gráficos em forma de aranha para visualizar as conexões entre pessoas e locais, com o objetivo de identificar insurgentes ou terroristas.

Identificar ou explicar?

A diferença é que o software atual se beneficia de um maior poder computacional, de algoritmos mais sofisticados (os avanços nas redes neurais ocorreram apenas em 2012) e de mais dados, por causa da proliferação de sensores. O resultado não é apenas uma inteligência mais farta ou melhor. É uma indefinição da linha entre inteligência, vigilância e reconhecimento (ISR) e comando e controle (C2): entre dar sentido aos dados e agir com base neles.

Tomemos como exemplo o software GIS Arta, da Ucrânia, que recolhe dados a respeito de alvos russos, normalmente para baterias de artilharia. Ele já é capaz de gerar listas de alvos potenciais “de acordo com as prioridades do comandante”, escrevem os generais Hinote e Ryan. Uma das razões pelas quais a pontaria russa na Ucrânia melhorou nos meses mais recentes, dizem as autoridades, é que os sistemas de C2 da Rússia estão melhorando no processamento de informações provenientes de drones e no envio das mesmas para o seu armamento. “De acordo com algumas estimativas”, escreve Arthur Holland Michel em um documento para o Comitê Internacional da Cruz Vermelha (CICV), uma organização humanitária, “uma atividade de busca, reconhecimento e análise de alvos que anteriormente demorava horas poderia ser reduzida… a minutos”.

A Força Aérea dos EUA pediu recentemente à Rand Corporation que avaliasse se as ferramentas de IA poderiam fornecer opções para um “combatente espacial” enfrentando uma ameaça que se aproxima de um satélite. A conclusão foi que a IA poderia de fato recomendar respostas de “alta qualidade”. Da mesma forma, a Darpa, o braço de pesquisa do Pentágono, está trabalhando em um programa chamado, ironicamente, de Máquina do Caos Estratégico para Planejamento, Tática, Experimentação e Resiliência (Scepter), para produzir recomendações de ações para comandantes durante “engajamentos militares em alta velocidade de máquina”. Em essência, o sistema é capaz de gerar novos planos de guerra em tempo real.

“Muitos dos métodos que estão sendo utilizados” no Scepter e em projetos semelhantes da Darpa “nem existiam há dois ou cinco anos”, diz Eric Davis, gestor de programas da agência. Ele aponta para o exemplo da “teoria do operador de Koopman”, uma estrutura matemática antiga e obscura que pode ser usada para analisar sistemas complexos e não lineares, como os encontrados na guerra, em termos de álgebra linear mais simples. Avanços recentes na sua aplicação tornaram vários problemas de IA mais tratáveis.

ElogIAr e criticar

O resultado de tudo isto é um crescente abismo intelectual entre aqueles cuja função é travar a guerra e aqueles que procuram domá-la. Especialistas jurídicos e especialistas em ética argumentam que o papel crescente da IA na guerra está repleto de perigos. “Os sistemas que temos agora são incapazes de reconhecer intenções hostis”, argumenta Noam Lubell, da Universidade de Essex. “Eles não conseguem distinguir entre um soldado baixo com uma arma de verdade e uma criança com uma arma de brinquedo... ou entre um soldado ferido caído sobre um rifle e um atirador pronto para atirar com um rifle de alta precisão.” Tais algoritmos “não podem ser usados legalmente”, conclui. As redes neurais também podem ser enganadas com muita facilidade, diz Stuart Russell, um cientista da computação: “Você poderia então pegar objetos perfeitamente inocentes, como postes de luz, e imprimir neles padrões que convenceriam a arma de que se trata de um tanque”.

Os defensores da IA militar respondem que os céticos têm uma visão muito otimista da guerra. Um drone de ataque à procura de um objeto específico pode não ser capaz de reconhecer, e muito menos respeitar, uma tentativa de rendição, reconhece um antigo oficial britânico envolvido na política de IA. Mas, se a alternativa for um bombardeio intenso, “de qualquer forma, não há rendição nessa circunstância”. Keith Dear, ex-oficial da Força Aérea Real que agora trabalha para a Fujitsu, uma empresa japonesa, vai além. “Se…as máquinas produzem uma taxa de falsos positivos e falsos negativos mais baixa do que os humanos, especialmente sob pressão, seria antiético não delegar autoridade”, argumenta. “Fizemos vários tipos de testes onde comparamos as capacidades e os feitos da máquina e as do ser humano”, diz o General Hayman, das IDF. “A maioria dos testes revela que a máquina é muito, muito, muito mais precisa... na maioria dos casos não há comparação.”

O Pentágono (foto) está trabalhando em um programa que é capaz de gerar novos planos de guerra em tempo real. Foto: Charles Dharapak/AP/Arquivo

Uma falácia envolve extrapolar a partir das campanhas de combate ao terrorismos dos anos 2000. “O futuro não consiste em reconhecer o rosto de um sujeito e atirar nele a 3.000 metros de altura”, argumenta Palmer Luckey, fundador da Anduril, uma das empresas envolvidas no StormCloud. “Trata-se de tentar abater uma frota de embarcações anfíbias de desembarque no Estreito de Taiwan.” Se um objeto tem a assinatura visual, eletrônica e térmica de um lançador de mísseis, ele argumenta: “Você simplesmente não pode estar errado... é um sinal incrivelmente único”. A geração de modelos pré-guerra reduz ainda mais a incerteza: “99% do que se vê acontecer no conflito na China terá sido executado em uma simulação múltiplas vezes”, diz Luckey, “muito antes de acontecer”.

“O problema é que, quando a máquina comete erros, são erros horríveis”, diz o general Hayman. “Se aceitos, eles levariam a eventos traumáticos.” Ele, portanto, se opõe a tirar o ser humano do circuito e a automatizar completamente os ataques. “É realmente tentador”, reconhece. “É algo que aceleraria o procedimento de uma forma sem precedentes. Mas poderíamos violar assim o direito internacional.” Luckey admite que a IA será menos relevante no trabalho “sujo, confuso e horrível” da guerra urbana ao estilo de Gaza. “Se as pessoas imaginam que haverá robôs ao estilo do Exterminador do Futuro procurando o Muhammad certo e atirando nele… não é assim que vai funcionar.”

Por seu lado, o CICV alerta que os sistemas de IA são potencialmente imprevisíveis, opacos e sujeitos ao enviesamento, mas aceita que “podem facilitar uma coleta e análise mais rápida e mais ampla da informação disponível...minimizando os riscos para os civis”. Muito depende de como as ferramentas são usadas. Se as IDF empregaram o Lavender conforme relatado, isso sugere que o problema eram as regras de engajamento excessivamente expansivas e os operadores desatentos, e não alguma patologia do software em si.

Durante muitos anos, especialistas e diplomatas têm discutido nas Nações Unidas a respeito da possibilidade de restringir ou proibir os sistemas de armas autônomos (AWS). Mas até defini-los é difícil. O CICV diz que AWS são aqueles armamentos que escolhem um alvo com base em um perfil geral: qualquer tanque, digamos, em vez de um tanque específico. Isso incluiria muitos dos drones usados na Ucrânia. O CICV é a favor da proibição de AWS que tenham como alvo pessoas ou que se comportem de forma imprevisível. O Reino Unido responde que as armas “totalmente” autônomas são aquelas que identificam, selecionam e atacam alvos sem “envolvimento humano adequado ao contexto”, um critério muito mais elevado. O Pentágono tem uma opinião semelhante, enfatizando “níveis apropriados de julgamento humano”.

Definir isso, por sua vez, é terrivelmente difícil. E isso não tem a ver apenas com o ato letal, mas com o que vem antes dele. Um drone de ataque altamente autônomo pode aparentar carecer de controle humano. Mas, se o seu comportamento for bem compreendido e for utilizado em uma área onde se sabe que há alvos militares legítimos, e não há civis, talvez os problemas sejam poucos. Por outro lado, uma ferramenta que apenas sugere alvos pode parecer mais benigna. Mas os comandantes que aprovam manualmente alvos individuais sugeridos pela ferramenta “sem clareza ou consciência cognitiva”, como afirma o Article 36, um grupo de defesa dos direitos, ou em outras palavras, apertando inconscientemente o botão vermelho, delegaram a responsabilidade moral para uma máquina.

O dilema deve piorar por dois motivos. Uma é que a IA gera mais IA. Se um exército estiver usando IA para localizar e atingir alvos mais rapidamente, o outro lado poderá ser forçado a recorrer à IA para acompanhar. Esse já é o caso quando se trata de defesa aérea, onde o software avançado tem sido essencial para rastrear ameaças desde o início da era da informática. A outra razão é que será mais difícil para os utilizadores humanos compreender o comportamento e as limitações dos sistemas militares. O aprendizado de máquina moderno ainda não é amplamente utilizado em sistemas “críticos” de apoio à decisão, observa Holland Michel. Mas será. E esses sistemas realizarão “tarefas mais difíceis de definir matematicamente”, observa ele, como prever a intenção futura de um adversário ou mesmo o seu estado emocional.

Fala-se até em usar IA na tomada de decisões nucleares. A ideia é que os países possam não só fundir dados para acompanhar as ameaças (como tem acontecido desde a década de 1950), mas também retaliar automaticamente se a liderança política for morta em um primeiro ataque. A União Soviética trabalhou neste tipo de conceito de “mão morta” durante a Guerra Fria como parte do seu sistema “Perimetr”. Ele continua em uso, e agora há rumores de que dependa de software baseado em IA, observa Leonid Ryabikhin, ex-oficial da força aérea soviética e especialista em controle de armas. Em 2023, um grupo de senadores americanos chegou a apresentar um novo projeto de lei: a “Lei de Bloqueio de Lançamento Nuclear por Inteligência Artificial Autônoma”. Esta é, naturalmente, uma área secreta, e pouco se sabe sobre até onde os diferentes países querem ir. Mas a questão é suficientemente importante para ter estado no topo da pauta das conversações presidenciais do ano passado entre Joe Biden e Xi Jinping.

Seguir no topo

No momento, nas guerras convencionais, “quase sempre há tempo para alguém dizer sim ou não”, diz um oficial britânico. “Não há necessidade de automação de toda a cadeia de destruição, e o processo não está em vias de adoção.” Se isso seria verdade em uma guerra de alta intensidade com a Rússia ou a China é menos claro. Em The Human Machine Team, um livro publicado sob pseudônimo em 2021, o brigadeiro-general Yossi Sariel, chefe de uma unidade de inteligência militar de elite israelense, escreveu que uma “equipe homem-máquina” habilitada com IA poderia gerar “milhares de novos alvos todos os dias” em uma guerra. “Existe um gargalo humano”, argumentou ele, “tanto na localização dos novos alvos quanto na tomada de decisões para aprová-los”.

Na prática, todos estes debates estão sendo substituídos por acontecimentos. Nem a Rússia nem a Ucrânia prestam muita atenção ao fato de um drone ser um sistema de armas “autônomo” ou meramente “automatizado”. Sua prioridade é construir armas que possam escapar do bloqueio e destruir o máximo possível de blindados inimigos. Os falsos positivos não são uma grande preocupação para um exército russo que bombardeou mais de 1.000 instalações de saúde ucranianas até agora, nem para um exército ucraniano que luta pela sua sobrevivência.

Paira também sobre este debate o espectro de uma guerra envolvendo grandes potências. Os países da Otan sabem que poderão ter de enfrentar um exército russo que poderá, quando a presente guerra terminar, ter uma vasta experiência na construção de armas de IA e em testá-las no campo de batalha. A China também está desenvolvendo muitas das mesmas tecnologias que os EUA. As empresas chinesas fabricam a grande maioria dos drones vendidos nos Estados Unidos, seja como bens de consumo ou para fins industriais. O relatório anual do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (PLA) começou a falar em uma “Guerra de Precisão MultiDomínio”: o uso de “big data e inteligência artificial para identificar rapidamente as principais vulnerabilidades” em sistemas militares americanos, como satélites ou redes de computadores, que poderiam então ser atacadas.

Relatório do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (foto) começou a falar em uma 'Guerra de Precisão MultiDomínio'. Foto: Tingshu Wang/REUTERS

A questão é quem está em vantagem. As autoridades americanas já se preocuparam com o fato de as regras de privacidade frouxas da China e o controle do setor privado darem ao país acesso a mais e melhores dados, o que resultaria em algoritmos e armas superiores. Essas preocupações diminuíram. Um estudo recente de dados de aquisições realizado pelo Centro de Segurança e Tecnologia Emergente (CSET) da Universidade Georgetown concluiu que EUA e China estão “dedicando níveis comparáveis de atenção a um conjunto semelhante de aplicações de IA”.

Além disso, os EUA avançaram em modelos de ponta, em parte graças às restrições ao comércio de chips. Em 2023, o país produziu 61 modelos notáveis de aprendizado de máquina, e a Europa, 25, de acordo com a Epoch AI, uma empresa de dados. A China produziu 15. Estes não são os modelos dos sistemas militares atuais, mas servirão de base aos futuros. “A China enfrenta ventos contrários significativos na… IA militar”, argumenta Sam Bresnick, do CSET. Não está claro se o PLA tem o talento tecnológico para criar sistemas de nível mundial, salienta ele, e a sua tomada de decisão centralizada pode impedir o apoio da IA à tomada de decisões. Muitos especialistas chineses também estão preocupados com a IA “não confiável”. “O PLA possui bastante poder militar letal”, observa Jacob Stokes, do CNAS, outro centro de estudos estratégicos, “mas, neste momento, nada parece ter níveis significativos de autonomia possibilitados pela IA”.

A aparente lentidão da China faz parte de um padrão mais amplo. Alguns, como Kenneth Payne, da King’s College London, pensam que a IA transformará não apenas a condução da guerra, mas a sua natureza essencial. “Esta fusão de inteligência de máquina e humana anunciaria uma era genuinamente nova de tomada de decisões na guerra”, prevê ele. “Talvez a mudança mais revolucionária desde a descoberta da escrita, há vários milhares de anos.” Mas, mesmo que tais afirmações se tornem mais plausíveis, a transformação permanece teimosamente distante em muitos aspectos.

“A ironia aqui é que falamos como se a IA estivesse em toda parte na defesa, quando não está quase em lugar nenhum”, observa Sir Chris Deverell, um general britânico da reserva. “A penetração da IA no Ministério da Defesa do Reino Unido é quase zero… Há muito teatro de inovação.” Um alto funcionário do Pentágono diz que o departamento fez grandes progressos na melhoria da sua infraestrutura de dados (os tubos ao longo dos quais os dados se movem) e em aeronaves não tripuladas que trabalham ao lado de aviões de guerra tripulados. Mesmo assim, o Pentágono gasta menos de 1% do seu orçamento em software, uma estatística frequentemente divulgada por executivos de startups de tecnologia de defesa. “O que é único [no Pentágono] é que a nossa missão envolve o uso da força, por isso os riscos são elevados”, afirma o responsável. “Temos que adotar a IA de forma rápida e segura.”

Enquanto isso, o StormCloud do Reino Unido está ficando “cada vez melhor”, diz um responsável envolvido no seu desenvolvimento, mas o projeto avançou lentamente por causa da dinâmica política interna e da burocracia em torno do credenciamento de novas tecnologias. O financiamento para sua segunda iteração foi de insignificantes £ 10 milhões, café pequeno no mundo da defesa. O plano é utilizá-lo em diversos exercícios este ano. “Se fôssemos a Ucrânia ou se estivéssemos genuinamente preocupados com a possibilidade de entrar em guerra em um futuro próximo”, diz o oficial, “teríamos gasto mais de 100 milhões de libras e o teríamos implantado em semanas ou meses”./TRADUÇÃO DE AUGUSTO CALIL.

No fim de 2021, a Marinha Real procurou a Microsoft e a Amazon Web Services, duas gigantes americanas da tecnologia, com uma pergunta: haveria uma maneira melhor de guerrear? Mais especificamente, poderiam elas encontrar uma forma mais eficaz de coordenação entre uma hipotética equipe de ataque no Caribe e os sistemas de mísseis de uma fragata?

As empresas de tecnologia colaboraram com a BAE Systems, uma gigante fabricante de armas, e a Anduril, uma empresa iniciante de menor porte, entre outros fornecedores militares. No espaço de 12 semanas, um intervalo incrivelmente rápido no universo das aquisições de defesa, o consórcio se reuniu em Somerset, no Reino Unido, para uma demonstração do que foi apelidado de StormCloud.

Fuzileiros navais no solo, drones no ar e muitos outros sensores foram conectados por meio de uma rede no estilo “mesh” de rádios avançados que permitia a cada um ver, continuamente, o que estava acontecendo em outros lugares, uma configuração que já havia permitido aos fuzileiros navais bater forças muito maiores em exercícios anteriores.

Os dados recolhidos foram processados tanto na “borda” da rede, a bordo de computadores pequenos e robustos amarrados aos veículos dos comandos com cabos elásticos, como em servidores de nuvem distantes, para onde foram enviados por satélite. O software de comando e controle monitorou uma área designada, decidiu quais drones deveriam voar para onde, identificou objetos no solo e sugeriu qual armamento usar para atacar qual alvo.

Os resultados foram impressionantes. Ficou evidente que o StormCloud era a “cadeia de destruição mais avançada do mundo”, diz um oficial envolvido no experimento, referindo-se a uma rede de sensores (como drones) e armas (como mísseis) interligados com redes digitais e software para dar sentido aos dados fluindo de um lado para outro. Mesmo há dois anos, em termos de velocidade e confiabilidade, diz ele, o sistema estava “quilômetros à frente” dos oficiais humanos em um quartel-general convencional.

Estudo descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c (foto), poderia poupar à Força Aérea dos EUA US$ 25 milhões por mês Foto: Ints Kalnins/Reuters

Ferramentas e armas habilitadas para inteligência artificial (IA) não estão sendo utilizadas apenas em exercícios. São também utilizadas em uma escala crescente em locais como Gaza e a Ucrânia. As forças armadas enxergam oportunidades notáveis. Elas também temem ser deixadas para trás pelos adversários. A despesa está aumentando rapidamente. Mas advogados e especialistas em ética temem que a IA torne a guerra mais rápida, mais opaca e menos humana. O fosso entre os dois grupos está aumentando, mesmo em um momento em que se torna cada vez mais concreta a perspectiva de uma guerra entre grandes potências.

Não existe uma definição única de IA. Coisas que outrora teriam merecido esse termo, como a navegação de mapeamento de relevo dos mísseis Tomahawk na década de 1980 ou as capacidades de detecção de tanques dos mísseis Brimstone no início da década de 2000, são agora vistas como software de trabalho. E muitas capacidades de ponta descritas como IA não envolvem o tipo de “aprendizado profundo” e grandes modelos de linguagem que sustentam serviços como o ChatGPT. Mas, sob vários disfarces, a IA está se infiltrando em todos os aspectos da guerra.

MelhorIAs

Isso começa com a parte chata: manutenção, logística, pessoal e outras tarefas necessárias para manter os exércitos equipados, alimentados e abastecidos. Um estudo recente realizado pelo centro de estudos estratégicos Rand Corporation descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c, poderia poupar à Força Aérea dos Estados Unidos US$ 25 milhões por mês, evitando avarias e excesso de estoque de peças (embora a IA tenha feito um trabalho pior com peças que raramente quebravam). A logística é outra área promissora. O Exército dos EUA está utilizando algoritmos para prever quando os obuses ucranianos necessitarão de novos canhões, por exemplo. A IA também está começando a chegar ao RH. O exército está usando um modelo treinado com 140 mil arquivos de pessoal para ajudar a selecionar soldados para promoção.

No outro extremo está a extremidade afiada da coisa. Tanto a Rússia como a Ucrânia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma, mesmo que a interferência interrompa a conexão entre o piloto e o drone. Ambos os lados normalmente usam pequenos chips para essa finalidade, que podem custar apenas US$ 100.

Vídeos de ataques de drones na Ucrânia mostram cada vez mais “caixas delimitadoras” aparecendo em torno de objetos, sugerindo que o drone está identificando um alvo e travando nele. A tecnologia permanece imatura, com os algoritmos de mira enfrentando muitos dos mesmos problemas enfrentados pelos carros autônomos, como ambientes complexos e objetos ocultos, e alguns problemas exclusivos do campo de batalha, como fumaça e iscas. Mas ela está melhorando rapidamente.

Entre a IA no back-end e a IA dentro das munições há um vasto universo de inovação, experimentação e avanços tecnológicos. Os drones, por si só, estão apenas perturbando a guerra, em vez de transformá-la, argumentam Clint Hinote, um general da reserva da força aérea americana, e Mick Ryan, um general australiano da reserva. Mas, quando combinado, com “sistemas de comando e controle digitalizados” (como o StormCloud) e “redes mesh da nova era de sensores civis e militares”, o resultado, dizem eles, é uma “trindade transformadora” que permite aos soldados na linha de frente ver e agir com base em informações em tempo real que antes estariam confinadas a uma sede distante.

A IA é um pré-requisito para isso. Comecemos com a rede mesh de sensores. Imagine dados de drones, satélites, redes sociais e outras fontes circulando por uma rede militar. Há muito para ser processado manualmente. Tamir Hayman, general que liderou a inteligência militar israelita até 2021, aponta dois grandes avanços. O “salto fundamental”, diz ele, oito ou nove anos atrás, ocorreu no software de conversão de voz em texto que permitia a busca por palavras-chave em interceptações de voz. O outro estava na visão computacional.

O projeto Spotter, do Ministério da Defesa britânico, já está utilizando redes neurais para a “detecção e identificação automatizada de objetos” em imagens de satélite, permitindo que os locais sejam “monitorizados automaticamente 24 horas por dia, 7 dias por semana, em busca de alterações na atividade”. Até fevereiro, uma empresa privada rotulou 25 mil objetos para treinar o modelo.

Tom Copinger-Symes, um general britânico, disse à Câmara dos Lordes no ano passado que tais sistemas “ainda estavam nos limites superiores da pesquisa e desenvolvimento, e não em fase de implantação em grande escala”, embora tenha apontado para a utilização de ferramentas comerciais para identificar, por exemplo, grupos de civis durante a retirada dos cidadãos britânicos do Sudão no início de 2023. Os EUA parecem estar mais adiantados. O país iniciou o projeto Maven em 2017 para lidar com o dilúvio de fotos e vídeos feitos por drones no Afeganistão e no Iraque.

O Maven “já está produzindo grandes volumes de detecções de visão computacional para as necessidades dos combatentes”, observou em maio o diretor da Agência Nacional de Inteligência Geoespacial, que administra o projeto. O objetivo declarado é que o Maven “atenda ou exceda o desempenho humano de detecção, classificação e rastreamento”.

Ele ainda não chegou lá: enfrenta dificuldades com casos complicados, como armas parcialmente escondidas. Mas o rastreador de incêndios relacionados com a guerra na Ucrânia, da The Economist, é baseado no aprendizado de máquina, é totalmente automatizado e funciona em uma escala que os jornalistas não conseguem igualar. Já detectou 93 mil incêndios provavelmente relacionados à guerra.

Militar ucraniano opera drone em Zaporizhzhia. A Ucrânia e a Rússia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma. Foto: Andriy Andriyenko/AP

A IA pode processar mais do que chamadas telefônicas ou fotos. Em março, a Marinha Real anunciou que sua unidade caça-minas tinha completado um ano de experiências no Golfo Pérsico utilizando um pequeno barco autônomo, o Harrier, cujo sistema de sonar rebocado poderia procurar minas no fundo do mar e alertar outros navios ou unidades em terra. E Michael Horowitz, um funcionário do Pentágono, disse recentemente ao site Defense News que os EUA, a Austrália e a Reino Unido, como parte do seu pacto Aukus, desenvolveram um “algoritmo trilateral” que poderia ser usado para processar os dados acústicos recolhidos pelos sonares flutuantes lançados das aeronaves caça-submarino P-8 de cada país.

Na maioria desses casos, a IA está identificando um sinal em meio ao ruído ou um objeto em meio a alguma bagunça: é um caminhão ou um tanque? Uma âncora ou uma mina? Uma traineira ou um submarino? Identificar combatentes humanos é talvez mais complicado e, certamente, mais controverso. Em abril, a +972 Magazine, um meio de comunicação israelense, afirmou que as Forças de Defesa de Israel (IFD) estavam utilizando uma ferramenta de IA conhecida como Lavender para identificar milhares de palestinos como alvos, com operadores humanos apenas supervisionando os resultados do sistema antes de ordenarem ataques. O IDF respondeu que o Lavender era “simplesmente um banco de dados cujo objetivo é cruzar referências de fontes de inteligência”.

Na prática, o Lavender provavelmente será o que os especialistas chamam de sistema de apoio à decisão (DSS), uma ferramenta para fundir diferentes dados, como registros telefônicos, imagens de satélite e outras informações. A utilização de sistemas de informática pelos Estados Unidos para processar dados acústicos e olfativos provenientes de sensores no Vietnã pode ser considerada uma forma primitiva de DSS. Rupert Barrett-Taylor, do Instituto Alan Turing, em Londres, observa que o mesmo aconteceria com o software usado por espiões e forças especiais americanas na guerra contra o terrorismo, que transformava registros telefônicos e outros dados em enormes gráficos em forma de aranha para visualizar as conexões entre pessoas e locais, com o objetivo de identificar insurgentes ou terroristas.

Identificar ou explicar?

A diferença é que o software atual se beneficia de um maior poder computacional, de algoritmos mais sofisticados (os avanços nas redes neurais ocorreram apenas em 2012) e de mais dados, por causa da proliferação de sensores. O resultado não é apenas uma inteligência mais farta ou melhor. É uma indefinição da linha entre inteligência, vigilância e reconhecimento (ISR) e comando e controle (C2): entre dar sentido aos dados e agir com base neles.

Tomemos como exemplo o software GIS Arta, da Ucrânia, que recolhe dados a respeito de alvos russos, normalmente para baterias de artilharia. Ele já é capaz de gerar listas de alvos potenciais “de acordo com as prioridades do comandante”, escrevem os generais Hinote e Ryan. Uma das razões pelas quais a pontaria russa na Ucrânia melhorou nos meses mais recentes, dizem as autoridades, é que os sistemas de C2 da Rússia estão melhorando no processamento de informações provenientes de drones e no envio das mesmas para o seu armamento. “De acordo com algumas estimativas”, escreve Arthur Holland Michel em um documento para o Comitê Internacional da Cruz Vermelha (CICV), uma organização humanitária, “uma atividade de busca, reconhecimento e análise de alvos que anteriormente demorava horas poderia ser reduzida… a minutos”.

A Força Aérea dos EUA pediu recentemente à Rand Corporation que avaliasse se as ferramentas de IA poderiam fornecer opções para um “combatente espacial” enfrentando uma ameaça que se aproxima de um satélite. A conclusão foi que a IA poderia de fato recomendar respostas de “alta qualidade”. Da mesma forma, a Darpa, o braço de pesquisa do Pentágono, está trabalhando em um programa chamado, ironicamente, de Máquina do Caos Estratégico para Planejamento, Tática, Experimentação e Resiliência (Scepter), para produzir recomendações de ações para comandantes durante “engajamentos militares em alta velocidade de máquina”. Em essência, o sistema é capaz de gerar novos planos de guerra em tempo real.

“Muitos dos métodos que estão sendo utilizados” no Scepter e em projetos semelhantes da Darpa “nem existiam há dois ou cinco anos”, diz Eric Davis, gestor de programas da agência. Ele aponta para o exemplo da “teoria do operador de Koopman”, uma estrutura matemática antiga e obscura que pode ser usada para analisar sistemas complexos e não lineares, como os encontrados na guerra, em termos de álgebra linear mais simples. Avanços recentes na sua aplicação tornaram vários problemas de IA mais tratáveis.

ElogIAr e criticar

O resultado de tudo isto é um crescente abismo intelectual entre aqueles cuja função é travar a guerra e aqueles que procuram domá-la. Especialistas jurídicos e especialistas em ética argumentam que o papel crescente da IA na guerra está repleto de perigos. “Os sistemas que temos agora são incapazes de reconhecer intenções hostis”, argumenta Noam Lubell, da Universidade de Essex. “Eles não conseguem distinguir entre um soldado baixo com uma arma de verdade e uma criança com uma arma de brinquedo... ou entre um soldado ferido caído sobre um rifle e um atirador pronto para atirar com um rifle de alta precisão.” Tais algoritmos “não podem ser usados legalmente”, conclui. As redes neurais também podem ser enganadas com muita facilidade, diz Stuart Russell, um cientista da computação: “Você poderia então pegar objetos perfeitamente inocentes, como postes de luz, e imprimir neles padrões que convenceriam a arma de que se trata de um tanque”.

Os defensores da IA militar respondem que os céticos têm uma visão muito otimista da guerra. Um drone de ataque à procura de um objeto específico pode não ser capaz de reconhecer, e muito menos respeitar, uma tentativa de rendição, reconhece um antigo oficial britânico envolvido na política de IA. Mas, se a alternativa for um bombardeio intenso, “de qualquer forma, não há rendição nessa circunstância”. Keith Dear, ex-oficial da Força Aérea Real que agora trabalha para a Fujitsu, uma empresa japonesa, vai além. “Se…as máquinas produzem uma taxa de falsos positivos e falsos negativos mais baixa do que os humanos, especialmente sob pressão, seria antiético não delegar autoridade”, argumenta. “Fizemos vários tipos de testes onde comparamos as capacidades e os feitos da máquina e as do ser humano”, diz o General Hayman, das IDF. “A maioria dos testes revela que a máquina é muito, muito, muito mais precisa... na maioria dos casos não há comparação.”

O Pentágono (foto) está trabalhando em um programa que é capaz de gerar novos planos de guerra em tempo real. Foto: Charles Dharapak/AP/Arquivo

Uma falácia envolve extrapolar a partir das campanhas de combate ao terrorismos dos anos 2000. “O futuro não consiste em reconhecer o rosto de um sujeito e atirar nele a 3.000 metros de altura”, argumenta Palmer Luckey, fundador da Anduril, uma das empresas envolvidas no StormCloud. “Trata-se de tentar abater uma frota de embarcações anfíbias de desembarque no Estreito de Taiwan.” Se um objeto tem a assinatura visual, eletrônica e térmica de um lançador de mísseis, ele argumenta: “Você simplesmente não pode estar errado... é um sinal incrivelmente único”. A geração de modelos pré-guerra reduz ainda mais a incerteza: “99% do que se vê acontecer no conflito na China terá sido executado em uma simulação múltiplas vezes”, diz Luckey, “muito antes de acontecer”.

“O problema é que, quando a máquina comete erros, são erros horríveis”, diz o general Hayman. “Se aceitos, eles levariam a eventos traumáticos.” Ele, portanto, se opõe a tirar o ser humano do circuito e a automatizar completamente os ataques. “É realmente tentador”, reconhece. “É algo que aceleraria o procedimento de uma forma sem precedentes. Mas poderíamos violar assim o direito internacional.” Luckey admite que a IA será menos relevante no trabalho “sujo, confuso e horrível” da guerra urbana ao estilo de Gaza. “Se as pessoas imaginam que haverá robôs ao estilo do Exterminador do Futuro procurando o Muhammad certo e atirando nele… não é assim que vai funcionar.”

Por seu lado, o CICV alerta que os sistemas de IA são potencialmente imprevisíveis, opacos e sujeitos ao enviesamento, mas aceita que “podem facilitar uma coleta e análise mais rápida e mais ampla da informação disponível...minimizando os riscos para os civis”. Muito depende de como as ferramentas são usadas. Se as IDF empregaram o Lavender conforme relatado, isso sugere que o problema eram as regras de engajamento excessivamente expansivas e os operadores desatentos, e não alguma patologia do software em si.

Durante muitos anos, especialistas e diplomatas têm discutido nas Nações Unidas a respeito da possibilidade de restringir ou proibir os sistemas de armas autônomos (AWS). Mas até defini-los é difícil. O CICV diz que AWS são aqueles armamentos que escolhem um alvo com base em um perfil geral: qualquer tanque, digamos, em vez de um tanque específico. Isso incluiria muitos dos drones usados na Ucrânia. O CICV é a favor da proibição de AWS que tenham como alvo pessoas ou que se comportem de forma imprevisível. O Reino Unido responde que as armas “totalmente” autônomas são aquelas que identificam, selecionam e atacam alvos sem “envolvimento humano adequado ao contexto”, um critério muito mais elevado. O Pentágono tem uma opinião semelhante, enfatizando “níveis apropriados de julgamento humano”.

Definir isso, por sua vez, é terrivelmente difícil. E isso não tem a ver apenas com o ato letal, mas com o que vem antes dele. Um drone de ataque altamente autônomo pode aparentar carecer de controle humano. Mas, se o seu comportamento for bem compreendido e for utilizado em uma área onde se sabe que há alvos militares legítimos, e não há civis, talvez os problemas sejam poucos. Por outro lado, uma ferramenta que apenas sugere alvos pode parecer mais benigna. Mas os comandantes que aprovam manualmente alvos individuais sugeridos pela ferramenta “sem clareza ou consciência cognitiva”, como afirma o Article 36, um grupo de defesa dos direitos, ou em outras palavras, apertando inconscientemente o botão vermelho, delegaram a responsabilidade moral para uma máquina.

O dilema deve piorar por dois motivos. Uma é que a IA gera mais IA. Se um exército estiver usando IA para localizar e atingir alvos mais rapidamente, o outro lado poderá ser forçado a recorrer à IA para acompanhar. Esse já é o caso quando se trata de defesa aérea, onde o software avançado tem sido essencial para rastrear ameaças desde o início da era da informática. A outra razão é que será mais difícil para os utilizadores humanos compreender o comportamento e as limitações dos sistemas militares. O aprendizado de máquina moderno ainda não é amplamente utilizado em sistemas “críticos” de apoio à decisão, observa Holland Michel. Mas será. E esses sistemas realizarão “tarefas mais difíceis de definir matematicamente”, observa ele, como prever a intenção futura de um adversário ou mesmo o seu estado emocional.

Fala-se até em usar IA na tomada de decisões nucleares. A ideia é que os países possam não só fundir dados para acompanhar as ameaças (como tem acontecido desde a década de 1950), mas também retaliar automaticamente se a liderança política for morta em um primeiro ataque. A União Soviética trabalhou neste tipo de conceito de “mão morta” durante a Guerra Fria como parte do seu sistema “Perimetr”. Ele continua em uso, e agora há rumores de que dependa de software baseado em IA, observa Leonid Ryabikhin, ex-oficial da força aérea soviética e especialista em controle de armas. Em 2023, um grupo de senadores americanos chegou a apresentar um novo projeto de lei: a “Lei de Bloqueio de Lançamento Nuclear por Inteligência Artificial Autônoma”. Esta é, naturalmente, uma área secreta, e pouco se sabe sobre até onde os diferentes países querem ir. Mas a questão é suficientemente importante para ter estado no topo da pauta das conversações presidenciais do ano passado entre Joe Biden e Xi Jinping.

Seguir no topo

No momento, nas guerras convencionais, “quase sempre há tempo para alguém dizer sim ou não”, diz um oficial britânico. “Não há necessidade de automação de toda a cadeia de destruição, e o processo não está em vias de adoção.” Se isso seria verdade em uma guerra de alta intensidade com a Rússia ou a China é menos claro. Em The Human Machine Team, um livro publicado sob pseudônimo em 2021, o brigadeiro-general Yossi Sariel, chefe de uma unidade de inteligência militar de elite israelense, escreveu que uma “equipe homem-máquina” habilitada com IA poderia gerar “milhares de novos alvos todos os dias” em uma guerra. “Existe um gargalo humano”, argumentou ele, “tanto na localização dos novos alvos quanto na tomada de decisões para aprová-los”.

Na prática, todos estes debates estão sendo substituídos por acontecimentos. Nem a Rússia nem a Ucrânia prestam muita atenção ao fato de um drone ser um sistema de armas “autônomo” ou meramente “automatizado”. Sua prioridade é construir armas que possam escapar do bloqueio e destruir o máximo possível de blindados inimigos. Os falsos positivos não são uma grande preocupação para um exército russo que bombardeou mais de 1.000 instalações de saúde ucranianas até agora, nem para um exército ucraniano que luta pela sua sobrevivência.

Paira também sobre este debate o espectro de uma guerra envolvendo grandes potências. Os países da Otan sabem que poderão ter de enfrentar um exército russo que poderá, quando a presente guerra terminar, ter uma vasta experiência na construção de armas de IA e em testá-las no campo de batalha. A China também está desenvolvendo muitas das mesmas tecnologias que os EUA. As empresas chinesas fabricam a grande maioria dos drones vendidos nos Estados Unidos, seja como bens de consumo ou para fins industriais. O relatório anual do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (PLA) começou a falar em uma “Guerra de Precisão MultiDomínio”: o uso de “big data e inteligência artificial para identificar rapidamente as principais vulnerabilidades” em sistemas militares americanos, como satélites ou redes de computadores, que poderiam então ser atacadas.

Relatório do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (foto) começou a falar em uma 'Guerra de Precisão MultiDomínio'. Foto: Tingshu Wang/REUTERS

A questão é quem está em vantagem. As autoridades americanas já se preocuparam com o fato de as regras de privacidade frouxas da China e o controle do setor privado darem ao país acesso a mais e melhores dados, o que resultaria em algoritmos e armas superiores. Essas preocupações diminuíram. Um estudo recente de dados de aquisições realizado pelo Centro de Segurança e Tecnologia Emergente (CSET) da Universidade Georgetown concluiu que EUA e China estão “dedicando níveis comparáveis de atenção a um conjunto semelhante de aplicações de IA”.

Além disso, os EUA avançaram em modelos de ponta, em parte graças às restrições ao comércio de chips. Em 2023, o país produziu 61 modelos notáveis de aprendizado de máquina, e a Europa, 25, de acordo com a Epoch AI, uma empresa de dados. A China produziu 15. Estes não são os modelos dos sistemas militares atuais, mas servirão de base aos futuros. “A China enfrenta ventos contrários significativos na… IA militar”, argumenta Sam Bresnick, do CSET. Não está claro se o PLA tem o talento tecnológico para criar sistemas de nível mundial, salienta ele, e a sua tomada de decisão centralizada pode impedir o apoio da IA à tomada de decisões. Muitos especialistas chineses também estão preocupados com a IA “não confiável”. “O PLA possui bastante poder militar letal”, observa Jacob Stokes, do CNAS, outro centro de estudos estratégicos, “mas, neste momento, nada parece ter níveis significativos de autonomia possibilitados pela IA”.

A aparente lentidão da China faz parte de um padrão mais amplo. Alguns, como Kenneth Payne, da King’s College London, pensam que a IA transformará não apenas a condução da guerra, mas a sua natureza essencial. “Esta fusão de inteligência de máquina e humana anunciaria uma era genuinamente nova de tomada de decisões na guerra”, prevê ele. “Talvez a mudança mais revolucionária desde a descoberta da escrita, há vários milhares de anos.” Mas, mesmo que tais afirmações se tornem mais plausíveis, a transformação permanece teimosamente distante em muitos aspectos.

“A ironia aqui é que falamos como se a IA estivesse em toda parte na defesa, quando não está quase em lugar nenhum”, observa Sir Chris Deverell, um general britânico da reserva. “A penetração da IA no Ministério da Defesa do Reino Unido é quase zero… Há muito teatro de inovação.” Um alto funcionário do Pentágono diz que o departamento fez grandes progressos na melhoria da sua infraestrutura de dados (os tubos ao longo dos quais os dados se movem) e em aeronaves não tripuladas que trabalham ao lado de aviões de guerra tripulados. Mesmo assim, o Pentágono gasta menos de 1% do seu orçamento em software, uma estatística frequentemente divulgada por executivos de startups de tecnologia de defesa. “O que é único [no Pentágono] é que a nossa missão envolve o uso da força, por isso os riscos são elevados”, afirma o responsável. “Temos que adotar a IA de forma rápida e segura.”

Enquanto isso, o StormCloud do Reino Unido está ficando “cada vez melhor”, diz um responsável envolvido no seu desenvolvimento, mas o projeto avançou lentamente por causa da dinâmica política interna e da burocracia em torno do credenciamento de novas tecnologias. O financiamento para sua segunda iteração foi de insignificantes £ 10 milhões, café pequeno no mundo da defesa. O plano é utilizá-lo em diversos exercícios este ano. “Se fôssemos a Ucrânia ou se estivéssemos genuinamente preocupados com a possibilidade de entrar em guerra em um futuro próximo”, diz o oficial, “teríamos gasto mais de 100 milhões de libras e o teríamos implantado em semanas ou meses”./TRADUÇÃO DE AUGUSTO CALIL.

No fim de 2021, a Marinha Real procurou a Microsoft e a Amazon Web Services, duas gigantes americanas da tecnologia, com uma pergunta: haveria uma maneira melhor de guerrear? Mais especificamente, poderiam elas encontrar uma forma mais eficaz de coordenação entre uma hipotética equipe de ataque no Caribe e os sistemas de mísseis de uma fragata?

As empresas de tecnologia colaboraram com a BAE Systems, uma gigante fabricante de armas, e a Anduril, uma empresa iniciante de menor porte, entre outros fornecedores militares. No espaço de 12 semanas, um intervalo incrivelmente rápido no universo das aquisições de defesa, o consórcio se reuniu em Somerset, no Reino Unido, para uma demonstração do que foi apelidado de StormCloud.

Fuzileiros navais no solo, drones no ar e muitos outros sensores foram conectados por meio de uma rede no estilo “mesh” de rádios avançados que permitia a cada um ver, continuamente, o que estava acontecendo em outros lugares, uma configuração que já havia permitido aos fuzileiros navais bater forças muito maiores em exercícios anteriores.

Os dados recolhidos foram processados tanto na “borda” da rede, a bordo de computadores pequenos e robustos amarrados aos veículos dos comandos com cabos elásticos, como em servidores de nuvem distantes, para onde foram enviados por satélite. O software de comando e controle monitorou uma área designada, decidiu quais drones deveriam voar para onde, identificou objetos no solo e sugeriu qual armamento usar para atacar qual alvo.

Os resultados foram impressionantes. Ficou evidente que o StormCloud era a “cadeia de destruição mais avançada do mundo”, diz um oficial envolvido no experimento, referindo-se a uma rede de sensores (como drones) e armas (como mísseis) interligados com redes digitais e software para dar sentido aos dados fluindo de um lado para outro. Mesmo há dois anos, em termos de velocidade e confiabilidade, diz ele, o sistema estava “quilômetros à frente” dos oficiais humanos em um quartel-general convencional.

Estudo descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c (foto), poderia poupar à Força Aérea dos EUA US$ 25 milhões por mês Foto: Ints Kalnins/Reuters

Ferramentas e armas habilitadas para inteligência artificial (IA) não estão sendo utilizadas apenas em exercícios. São também utilizadas em uma escala crescente em locais como Gaza e a Ucrânia. As forças armadas enxergam oportunidades notáveis. Elas também temem ser deixadas para trás pelos adversários. A despesa está aumentando rapidamente. Mas advogados e especialistas em ética temem que a IA torne a guerra mais rápida, mais opaca e menos humana. O fosso entre os dois grupos está aumentando, mesmo em um momento em que se torna cada vez mais concreta a perspectiva de uma guerra entre grandes potências.

Não existe uma definição única de IA. Coisas que outrora teriam merecido esse termo, como a navegação de mapeamento de relevo dos mísseis Tomahawk na década de 1980 ou as capacidades de detecção de tanques dos mísseis Brimstone no início da década de 2000, são agora vistas como software de trabalho. E muitas capacidades de ponta descritas como IA não envolvem o tipo de “aprendizado profundo” e grandes modelos de linguagem que sustentam serviços como o ChatGPT. Mas, sob vários disfarces, a IA está se infiltrando em todos os aspectos da guerra.

MelhorIAs

Isso começa com a parte chata: manutenção, logística, pessoal e outras tarefas necessárias para manter os exércitos equipados, alimentados e abastecidos. Um estudo recente realizado pelo centro de estudos estratégicos Rand Corporation descobriu que a IA, ao prever quando seria necessária manutenção nos aviões de guerra A-10c, poderia poupar à Força Aérea dos Estados Unidos US$ 25 milhões por mês, evitando avarias e excesso de estoque de peças (embora a IA tenha feito um trabalho pior com peças que raramente quebravam). A logística é outra área promissora. O Exército dos EUA está utilizando algoritmos para prever quando os obuses ucranianos necessitarão de novos canhões, por exemplo. A IA também está começando a chegar ao RH. O exército está usando um modelo treinado com 140 mil arquivos de pessoal para ajudar a selecionar soldados para promoção.

No outro extremo está a extremidade afiada da coisa. Tanto a Rússia como a Ucrânia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma, mesmo que a interferência interrompa a conexão entre o piloto e o drone. Ambos os lados normalmente usam pequenos chips para essa finalidade, que podem custar apenas US$ 100.

Vídeos de ataques de drones na Ucrânia mostram cada vez mais “caixas delimitadoras” aparecendo em torno de objetos, sugerindo que o drone está identificando um alvo e travando nele. A tecnologia permanece imatura, com os algoritmos de mira enfrentando muitos dos mesmos problemas enfrentados pelos carros autônomos, como ambientes complexos e objetos ocultos, e alguns problemas exclusivos do campo de batalha, como fumaça e iscas. Mas ela está melhorando rapidamente.

Entre a IA no back-end e a IA dentro das munições há um vasto universo de inovação, experimentação e avanços tecnológicos. Os drones, por si só, estão apenas perturbando a guerra, em vez de transformá-la, argumentam Clint Hinote, um general da reserva da força aérea americana, e Mick Ryan, um general australiano da reserva. Mas, quando combinado, com “sistemas de comando e controle digitalizados” (como o StormCloud) e “redes mesh da nova era de sensores civis e militares”, o resultado, dizem eles, é uma “trindade transformadora” que permite aos soldados na linha de frente ver e agir com base em informações em tempo real que antes estariam confinadas a uma sede distante.

A IA é um pré-requisito para isso. Comecemos com a rede mesh de sensores. Imagine dados de drones, satélites, redes sociais e outras fontes circulando por uma rede militar. Há muito para ser processado manualmente. Tamir Hayman, general que liderou a inteligência militar israelita até 2021, aponta dois grandes avanços. O “salto fundamental”, diz ele, oito ou nove anos atrás, ocorreu no software de conversão de voz em texto que permitia a busca por palavras-chave em interceptações de voz. O outro estava na visão computacional.

O projeto Spotter, do Ministério da Defesa britânico, já está utilizando redes neurais para a “detecção e identificação automatizada de objetos” em imagens de satélite, permitindo que os locais sejam “monitorizados automaticamente 24 horas por dia, 7 dias por semana, em busca de alterações na atividade”. Até fevereiro, uma empresa privada rotulou 25 mil objetos para treinar o modelo.

Tom Copinger-Symes, um general britânico, disse à Câmara dos Lordes no ano passado que tais sistemas “ainda estavam nos limites superiores da pesquisa e desenvolvimento, e não em fase de implantação em grande escala”, embora tenha apontado para a utilização de ferramentas comerciais para identificar, por exemplo, grupos de civis durante a retirada dos cidadãos britânicos do Sudão no início de 2023. Os EUA parecem estar mais adiantados. O país iniciou o projeto Maven em 2017 para lidar com o dilúvio de fotos e vídeos feitos por drones no Afeganistão e no Iraque.

O Maven “já está produzindo grandes volumes de detecções de visão computacional para as necessidades dos combatentes”, observou em maio o diretor da Agência Nacional de Inteligência Geoespacial, que administra o projeto. O objetivo declarado é que o Maven “atenda ou exceda o desempenho humano de detecção, classificação e rastreamento”.

Ele ainda não chegou lá: enfrenta dificuldades com casos complicados, como armas parcialmente escondidas. Mas o rastreador de incêndios relacionados com a guerra na Ucrânia, da The Economist, é baseado no aprendizado de máquina, é totalmente automatizado e funciona em uma escala que os jornalistas não conseguem igualar. Já detectou 93 mil incêndios provavelmente relacionados à guerra.

Militar ucraniano opera drone em Zaporizhzhia. A Ucrânia e a Rússia têm se apressado no desenvolvimento de software para tornar os drones capazes de navegar e localizar um alvo de forma autônoma. Foto: Andriy Andriyenko/AP

A IA pode processar mais do que chamadas telefônicas ou fotos. Em março, a Marinha Real anunciou que sua unidade caça-minas tinha completado um ano de experiências no Golfo Pérsico utilizando um pequeno barco autônomo, o Harrier, cujo sistema de sonar rebocado poderia procurar minas no fundo do mar e alertar outros navios ou unidades em terra. E Michael Horowitz, um funcionário do Pentágono, disse recentemente ao site Defense News que os EUA, a Austrália e a Reino Unido, como parte do seu pacto Aukus, desenvolveram um “algoritmo trilateral” que poderia ser usado para processar os dados acústicos recolhidos pelos sonares flutuantes lançados das aeronaves caça-submarino P-8 de cada país.

Na maioria desses casos, a IA está identificando um sinal em meio ao ruído ou um objeto em meio a alguma bagunça: é um caminhão ou um tanque? Uma âncora ou uma mina? Uma traineira ou um submarino? Identificar combatentes humanos é talvez mais complicado e, certamente, mais controverso. Em abril, a +972 Magazine, um meio de comunicação israelense, afirmou que as Forças de Defesa de Israel (IFD) estavam utilizando uma ferramenta de IA conhecida como Lavender para identificar milhares de palestinos como alvos, com operadores humanos apenas supervisionando os resultados do sistema antes de ordenarem ataques. O IDF respondeu que o Lavender era “simplesmente um banco de dados cujo objetivo é cruzar referências de fontes de inteligência”.

Na prática, o Lavender provavelmente será o que os especialistas chamam de sistema de apoio à decisão (DSS), uma ferramenta para fundir diferentes dados, como registros telefônicos, imagens de satélite e outras informações. A utilização de sistemas de informática pelos Estados Unidos para processar dados acústicos e olfativos provenientes de sensores no Vietnã pode ser considerada uma forma primitiva de DSS. Rupert Barrett-Taylor, do Instituto Alan Turing, em Londres, observa que o mesmo aconteceria com o software usado por espiões e forças especiais americanas na guerra contra o terrorismo, que transformava registros telefônicos e outros dados em enormes gráficos em forma de aranha para visualizar as conexões entre pessoas e locais, com o objetivo de identificar insurgentes ou terroristas.

Identificar ou explicar?

A diferença é que o software atual se beneficia de um maior poder computacional, de algoritmos mais sofisticados (os avanços nas redes neurais ocorreram apenas em 2012) e de mais dados, por causa da proliferação de sensores. O resultado não é apenas uma inteligência mais farta ou melhor. É uma indefinição da linha entre inteligência, vigilância e reconhecimento (ISR) e comando e controle (C2): entre dar sentido aos dados e agir com base neles.

Tomemos como exemplo o software GIS Arta, da Ucrânia, que recolhe dados a respeito de alvos russos, normalmente para baterias de artilharia. Ele já é capaz de gerar listas de alvos potenciais “de acordo com as prioridades do comandante”, escrevem os generais Hinote e Ryan. Uma das razões pelas quais a pontaria russa na Ucrânia melhorou nos meses mais recentes, dizem as autoridades, é que os sistemas de C2 da Rússia estão melhorando no processamento de informações provenientes de drones e no envio das mesmas para o seu armamento. “De acordo com algumas estimativas”, escreve Arthur Holland Michel em um documento para o Comitê Internacional da Cruz Vermelha (CICV), uma organização humanitária, “uma atividade de busca, reconhecimento e análise de alvos que anteriormente demorava horas poderia ser reduzida… a minutos”.

A Força Aérea dos EUA pediu recentemente à Rand Corporation que avaliasse se as ferramentas de IA poderiam fornecer opções para um “combatente espacial” enfrentando uma ameaça que se aproxima de um satélite. A conclusão foi que a IA poderia de fato recomendar respostas de “alta qualidade”. Da mesma forma, a Darpa, o braço de pesquisa do Pentágono, está trabalhando em um programa chamado, ironicamente, de Máquina do Caos Estratégico para Planejamento, Tática, Experimentação e Resiliência (Scepter), para produzir recomendações de ações para comandantes durante “engajamentos militares em alta velocidade de máquina”. Em essência, o sistema é capaz de gerar novos planos de guerra em tempo real.

“Muitos dos métodos que estão sendo utilizados” no Scepter e em projetos semelhantes da Darpa “nem existiam há dois ou cinco anos”, diz Eric Davis, gestor de programas da agência. Ele aponta para o exemplo da “teoria do operador de Koopman”, uma estrutura matemática antiga e obscura que pode ser usada para analisar sistemas complexos e não lineares, como os encontrados na guerra, em termos de álgebra linear mais simples. Avanços recentes na sua aplicação tornaram vários problemas de IA mais tratáveis.

ElogIAr e criticar

O resultado de tudo isto é um crescente abismo intelectual entre aqueles cuja função é travar a guerra e aqueles que procuram domá-la. Especialistas jurídicos e especialistas em ética argumentam que o papel crescente da IA na guerra está repleto de perigos. “Os sistemas que temos agora são incapazes de reconhecer intenções hostis”, argumenta Noam Lubell, da Universidade de Essex. “Eles não conseguem distinguir entre um soldado baixo com uma arma de verdade e uma criança com uma arma de brinquedo... ou entre um soldado ferido caído sobre um rifle e um atirador pronto para atirar com um rifle de alta precisão.” Tais algoritmos “não podem ser usados legalmente”, conclui. As redes neurais também podem ser enganadas com muita facilidade, diz Stuart Russell, um cientista da computação: “Você poderia então pegar objetos perfeitamente inocentes, como postes de luz, e imprimir neles padrões que convenceriam a arma de que se trata de um tanque”.

Os defensores da IA militar respondem que os céticos têm uma visão muito otimista da guerra. Um drone de ataque à procura de um objeto específico pode não ser capaz de reconhecer, e muito menos respeitar, uma tentativa de rendição, reconhece um antigo oficial britânico envolvido na política de IA. Mas, se a alternativa for um bombardeio intenso, “de qualquer forma, não há rendição nessa circunstância”. Keith Dear, ex-oficial da Força Aérea Real que agora trabalha para a Fujitsu, uma empresa japonesa, vai além. “Se…as máquinas produzem uma taxa de falsos positivos e falsos negativos mais baixa do que os humanos, especialmente sob pressão, seria antiético não delegar autoridade”, argumenta. “Fizemos vários tipos de testes onde comparamos as capacidades e os feitos da máquina e as do ser humano”, diz o General Hayman, das IDF. “A maioria dos testes revela que a máquina é muito, muito, muito mais precisa... na maioria dos casos não há comparação.”

O Pentágono (foto) está trabalhando em um programa que é capaz de gerar novos planos de guerra em tempo real. Foto: Charles Dharapak/AP/Arquivo

Uma falácia envolve extrapolar a partir das campanhas de combate ao terrorismos dos anos 2000. “O futuro não consiste em reconhecer o rosto de um sujeito e atirar nele a 3.000 metros de altura”, argumenta Palmer Luckey, fundador da Anduril, uma das empresas envolvidas no StormCloud. “Trata-se de tentar abater uma frota de embarcações anfíbias de desembarque no Estreito de Taiwan.” Se um objeto tem a assinatura visual, eletrônica e térmica de um lançador de mísseis, ele argumenta: “Você simplesmente não pode estar errado... é um sinal incrivelmente único”. A geração de modelos pré-guerra reduz ainda mais a incerteza: “99% do que se vê acontecer no conflito na China terá sido executado em uma simulação múltiplas vezes”, diz Luckey, “muito antes de acontecer”.

“O problema é que, quando a máquina comete erros, são erros horríveis”, diz o general Hayman. “Se aceitos, eles levariam a eventos traumáticos.” Ele, portanto, se opõe a tirar o ser humano do circuito e a automatizar completamente os ataques. “É realmente tentador”, reconhece. “É algo que aceleraria o procedimento de uma forma sem precedentes. Mas poderíamos violar assim o direito internacional.” Luckey admite que a IA será menos relevante no trabalho “sujo, confuso e horrível” da guerra urbana ao estilo de Gaza. “Se as pessoas imaginam que haverá robôs ao estilo do Exterminador do Futuro procurando o Muhammad certo e atirando nele… não é assim que vai funcionar.”

Por seu lado, o CICV alerta que os sistemas de IA são potencialmente imprevisíveis, opacos e sujeitos ao enviesamento, mas aceita que “podem facilitar uma coleta e análise mais rápida e mais ampla da informação disponível...minimizando os riscos para os civis”. Muito depende de como as ferramentas são usadas. Se as IDF empregaram o Lavender conforme relatado, isso sugere que o problema eram as regras de engajamento excessivamente expansivas e os operadores desatentos, e não alguma patologia do software em si.

Durante muitos anos, especialistas e diplomatas têm discutido nas Nações Unidas a respeito da possibilidade de restringir ou proibir os sistemas de armas autônomos (AWS). Mas até defini-los é difícil. O CICV diz que AWS são aqueles armamentos que escolhem um alvo com base em um perfil geral: qualquer tanque, digamos, em vez de um tanque específico. Isso incluiria muitos dos drones usados na Ucrânia. O CICV é a favor da proibição de AWS que tenham como alvo pessoas ou que se comportem de forma imprevisível. O Reino Unido responde que as armas “totalmente” autônomas são aquelas que identificam, selecionam e atacam alvos sem “envolvimento humano adequado ao contexto”, um critério muito mais elevado. O Pentágono tem uma opinião semelhante, enfatizando “níveis apropriados de julgamento humano”.

Definir isso, por sua vez, é terrivelmente difícil. E isso não tem a ver apenas com o ato letal, mas com o que vem antes dele. Um drone de ataque altamente autônomo pode aparentar carecer de controle humano. Mas, se o seu comportamento for bem compreendido e for utilizado em uma área onde se sabe que há alvos militares legítimos, e não há civis, talvez os problemas sejam poucos. Por outro lado, uma ferramenta que apenas sugere alvos pode parecer mais benigna. Mas os comandantes que aprovam manualmente alvos individuais sugeridos pela ferramenta “sem clareza ou consciência cognitiva”, como afirma o Article 36, um grupo de defesa dos direitos, ou em outras palavras, apertando inconscientemente o botão vermelho, delegaram a responsabilidade moral para uma máquina.

O dilema deve piorar por dois motivos. Uma é que a IA gera mais IA. Se um exército estiver usando IA para localizar e atingir alvos mais rapidamente, o outro lado poderá ser forçado a recorrer à IA para acompanhar. Esse já é o caso quando se trata de defesa aérea, onde o software avançado tem sido essencial para rastrear ameaças desde o início da era da informática. A outra razão é que será mais difícil para os utilizadores humanos compreender o comportamento e as limitações dos sistemas militares. O aprendizado de máquina moderno ainda não é amplamente utilizado em sistemas “críticos” de apoio à decisão, observa Holland Michel. Mas será. E esses sistemas realizarão “tarefas mais difíceis de definir matematicamente”, observa ele, como prever a intenção futura de um adversário ou mesmo o seu estado emocional.

Fala-se até em usar IA na tomada de decisões nucleares. A ideia é que os países possam não só fundir dados para acompanhar as ameaças (como tem acontecido desde a década de 1950), mas também retaliar automaticamente se a liderança política for morta em um primeiro ataque. A União Soviética trabalhou neste tipo de conceito de “mão morta” durante a Guerra Fria como parte do seu sistema “Perimetr”. Ele continua em uso, e agora há rumores de que dependa de software baseado em IA, observa Leonid Ryabikhin, ex-oficial da força aérea soviética e especialista em controle de armas. Em 2023, um grupo de senadores americanos chegou a apresentar um novo projeto de lei: a “Lei de Bloqueio de Lançamento Nuclear por Inteligência Artificial Autônoma”. Esta é, naturalmente, uma área secreta, e pouco se sabe sobre até onde os diferentes países querem ir. Mas a questão é suficientemente importante para ter estado no topo da pauta das conversações presidenciais do ano passado entre Joe Biden e Xi Jinping.

Seguir no topo

No momento, nas guerras convencionais, “quase sempre há tempo para alguém dizer sim ou não”, diz um oficial britânico. “Não há necessidade de automação de toda a cadeia de destruição, e o processo não está em vias de adoção.” Se isso seria verdade em uma guerra de alta intensidade com a Rússia ou a China é menos claro. Em The Human Machine Team, um livro publicado sob pseudônimo em 2021, o brigadeiro-general Yossi Sariel, chefe de uma unidade de inteligência militar de elite israelense, escreveu que uma “equipe homem-máquina” habilitada com IA poderia gerar “milhares de novos alvos todos os dias” em uma guerra. “Existe um gargalo humano”, argumentou ele, “tanto na localização dos novos alvos quanto na tomada de decisões para aprová-los”.

Na prática, todos estes debates estão sendo substituídos por acontecimentos. Nem a Rússia nem a Ucrânia prestam muita atenção ao fato de um drone ser um sistema de armas “autônomo” ou meramente “automatizado”. Sua prioridade é construir armas que possam escapar do bloqueio e destruir o máximo possível de blindados inimigos. Os falsos positivos não são uma grande preocupação para um exército russo que bombardeou mais de 1.000 instalações de saúde ucranianas até agora, nem para um exército ucraniano que luta pela sua sobrevivência.

Paira também sobre este debate o espectro de uma guerra envolvendo grandes potências. Os países da Otan sabem que poderão ter de enfrentar um exército russo que poderá, quando a presente guerra terminar, ter uma vasta experiência na construção de armas de IA e em testá-las no campo de batalha. A China também está desenvolvendo muitas das mesmas tecnologias que os EUA. As empresas chinesas fabricam a grande maioria dos drones vendidos nos Estados Unidos, seja como bens de consumo ou para fins industriais. O relatório anual do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (PLA) começou a falar em uma “Guerra de Precisão MultiDomínio”: o uso de “big data e inteligência artificial para identificar rapidamente as principais vulnerabilidades” em sistemas militares americanos, como satélites ou redes de computadores, que poderiam então ser atacadas.

Relatório do Pentágono a respeito do poder militar chinês observa que, em 2022, o Exército de Libertação Popular (foto) começou a falar em uma 'Guerra de Precisão MultiDomínio'. Foto: Tingshu Wang/REUTERS

A questão é quem está em vantagem. As autoridades americanas já se preocuparam com o fato de as regras de privacidade frouxas da China e o controle do setor privado darem ao país acesso a mais e melhores dados, o que resultaria em algoritmos e armas superiores. Essas preocupações diminuíram. Um estudo recente de dados de aquisições realizado pelo Centro de Segurança e Tecnologia Emergente (CSET) da Universidade Georgetown concluiu que EUA e China estão “dedicando níveis comparáveis de atenção a um conjunto semelhante de aplicações de IA”.

Além disso, os EUA avançaram em modelos de ponta, em parte graças às restrições ao comércio de chips. Em 2023, o país produziu 61 modelos notáveis de aprendizado de máquina, e a Europa, 25, de acordo com a Epoch AI, uma empresa de dados. A China produziu 15. Estes não são os modelos dos sistemas militares atuais, mas servirão de base aos futuros. “A China enfrenta ventos contrários significativos na… IA militar”, argumenta Sam Bresnick, do CSET. Não está claro se o PLA tem o talento tecnológico para criar sistemas de nível mundial, salienta ele, e a sua tomada de decisão centralizada pode impedir o apoio da IA à tomada de decisões. Muitos especialistas chineses também estão preocupados com a IA “não confiável”. “O PLA possui bastante poder militar letal”, observa Jacob Stokes, do CNAS, outro centro de estudos estratégicos, “mas, neste momento, nada parece ter níveis significativos de autonomia possibilitados pela IA”.

A aparente lentidão da China faz parte de um padrão mais amplo. Alguns, como Kenneth Payne, da King’s College London, pensam que a IA transformará não apenas a condução da guerra, mas a sua natureza essencial. “Esta fusão de inteligência de máquina e humana anunciaria uma era genuinamente nova de tomada de decisões na guerra”, prevê ele. “Talvez a mudança mais revolucionária desde a descoberta da escrita, há vários milhares de anos.” Mas, mesmo que tais afirmações se tornem mais plausíveis, a transformação permanece teimosamente distante em muitos aspectos.

“A ironia aqui é que falamos como se a IA estivesse em toda parte na defesa, quando não está quase em lugar nenhum”, observa Sir Chris Deverell, um general britânico da reserva. “A penetração da IA no Ministério da Defesa do Reino Unido é quase zero… Há muito teatro de inovação.” Um alto funcionário do Pentágono diz que o departamento fez grandes progressos na melhoria da sua infraestrutura de dados (os tubos ao longo dos quais os dados se movem) e em aeronaves não tripuladas que trabalham ao lado de aviões de guerra tripulados. Mesmo assim, o Pentágono gasta menos de 1% do seu orçamento em software, uma estatística frequentemente divulgada por executivos de startups de tecnologia de defesa. “O que é único [no Pentágono] é que a nossa missão envolve o uso da força, por isso os riscos são elevados”, afirma o responsável. “Temos que adotar a IA de forma rápida e segura.”

Enquanto isso, o StormCloud do Reino Unido está ficando “cada vez melhor”, diz um responsável envolvido no seu desenvolvimento, mas o projeto avançou lentamente por causa da dinâmica política interna e da burocracia em torno do credenciamento de novas tecnologias. O financiamento para sua segunda iteração foi de insignificantes £ 10 milhões, café pequeno no mundo da defesa. O plano é utilizá-lo em diversos exercícios este ano. “Se fôssemos a Ucrânia ou se estivéssemos genuinamente preocupados com a possibilidade de entrar em guerra em um futuro próximo”, diz o oficial, “teríamos gasto mais de 100 milhões de libras e o teríamos implantado em semanas ou meses”./TRADUÇÃO DE AUGUSTO CALIL.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.