Como Israel construiu uma ‘fábrica de IA’ para a guerra contra o Hamas em Gaza

Na guerra contra o Hamas, israelenses recorreram a uma elaborada ferramenta de inteligência artificial chamada Habsora — ou “o Evangelho” - capaz de gerar rapidamente centenas de alvos

PUBLICIDADE

PUBLICIDADE

Por Elizabeth Dwoskin (The Washington Post)

Após o brutal ataque do Hamas em 7 de outubro de 2023, as Forças Armadas de Israel lançaram uma enxurrada de bombas contra Gaza, usando com base um banco de dados cuidadosamente compilado ao longo de anos, que detalhava endereços residenciais, túneis e outras infraestruturas essenciais para o grupo militante.

PUBLICIDADE

Mas então o banco de alvos diminuiu. Para manter o ritmo alucinante da guerra, os israelenses recorreram a uma elaborada ferramenta de inteligência artificial chamada Habsora — ou “o Evangelho” — capaz de gerar rapidamente centenas de alvos adicionais.

O uso de IA para repor rapidamente o banco de alvos do Exército de Israel permitiu que seus militares dessem continuidade à sua campanha ininterruptamente, de acordo com duas fontes familiarizadas com a operação. Um exemplo de como o programa de uma década para colocar ferramentas avançadas de IA no centro das operações de inteligência militar colaborou com a violência da guerra de 14 meses de Israel em Gaza.

As Forças Armadas israelenses anunciaram a existência desses programas, que constituem o que alguns especialistas consideram a iniciativa de IA militar mais avançada já implantada. Mas uma investigação do Washington Post revela detalhes não relatados anteriormente sobre o funcionamento interno do programa de aprendizado de máquina, juntamente com a história secreta de uma década de seu desenvolvimento.

Publicidade

A investigação também revela um debate feroz dentro dos mais altos escalões das Forças Armadas, iniciada anos antes do 7 de outubro, sobre a qualidade dos dados de inteligência coletados pela IA e as recomendações das tecnologias terem tido escrutínio suficiente e se o foco na IA enfraqueceu as capacidades de inteligência militar israelense. Alguns críticos internos argumentam que o programa de IA tem sido uma força secreta para a aceleração do número de mortos em Gaza, ceifando 45 mil vidas — mais da metade de mulheres e crianças, segundo o Ministério da Saúde de Gaza.

Crianças palestinas observam um ataque feito por Israel na Faixa de Gaza Foto: Omar Al-qattaa/OMAR AL-QATTAA

O Ministério da Saúde de Gaza não diferencia entre civis e combatentes. Em um comunicado, as Forças Armadas de Israel afirmaram que o ministério é controlado pelo Hamas e seus dados “estão repletos de inconsistências e falsas determinações”.

Fontes familiarizadas com as práticas israelenses, incluindo soldados que serviram na guerra, dizem que o Exército de Israel ampliou significativamente o número aceitável de baixas civis em relação às suas normas históricas. Alguns argumentam que essa mudança é consequência da automação, que facilitou a determinação de grandes quantidades de alvos rapidamente, incluindo militantes de baixo escalão que participaram dos ataques de 7 de outubro de 2023.

Esta reportagem tem como base entrevistas com mais de uma dúzia de fontes familiarizadas com os sistemas, muitas das quais falaram sob condição de anonimato para discutir detalhes de tópicos ultrassecretos de segurança nacional, assim como documentos obtidos pelo Post.

Publicidade

“O que está acontecendo em Gaza é um prenúncio de uma mudança mais ampla na forma de travar guerras”, disse Steven Feldstein, pesquisador-sênior do Fundo Carnegie, que pesquisa o uso de IA na guerra. Ele observou que os militares israelenses parecem ter relaxado seu limite para o número aceitável de baixas civis durante a guerra de Gaza. “Combine isso com a aceleração que esses sistemas oferecem — assim como às questões de precisão — e o resultado final é um número de mortes na guerra maior do que se imaginava anteriormente.”

As Forças Armadas de Israel declararam que as afirmações sobre seu uso de IA colocar vidas em risco são “equivocadas”.

“Quanto mais capacidade você tem de compilar informações efetivamente, mais preciso é o processo”, afirmou o Exército israelense num comunicado ao Post. “Essas ferramentas minimizaram os danos colaterais e aumentaram a precisão do processo liderado por humanos.”

As Forças Armadas de Israel exigem que um oficial avalize todas as recomendações de seus sistemas de “processamento de big data”, de acordo com uma autoridade de inteligência que falou sob condição de anonimato, porque Israel não divulga os nomes dos líderes da divisão. O Evangelho e outras ferramentas de IA não tomam decisões de forma autônoma, acrescentou a fonte.

Publicidade

A reformulação da celebrada divisão de inteligência de sinais dos militares israelenses, conhecida como Unidade 8200, se intensificou desde 2020 sob o comando de seu atual chefe, Yossi Sariel, transformando o trabalho da divisão e as práticas de coleta de inteligência.

Sariel defendeu o desenvolvimento do Evangelho, um software de aprendizado de máquina construído sobre centenas de algoritmos preditivos, que permite aos soldados consultar rapidamente um vasto acervo de dados conhecido no Exército como o “pool”.

Analisando torrentes de dados de comunicações interceptados, imagens de satélite e redes sociais, os algoritmos respondem emitindo localizações de túneis, foguetes e outros alvos militares. As recomendações que resistem à verificação de analista de inteligência são inseridas no banco de alvos por um oficial-sênior.

Usando o mecanismo de reconhecimento de imagem do software, os soldados foram capazes de constatar padrões sutis, incluindo mudanças mínimas em anos de vídeos de Gaza captados por satélite, sugerindo que o Hamas tinha enterrado um lançador de foguetes ou cavado um novo túnel em terras agrícolas, reduzindo uma semana de trabalho em 30 minutos, disse um ex-comandante militar que trabalhou nos sistemas.

Outra ferramenta de aprendizado de máquina, chamada Lavender, usa uma graduação porcentual para prever a probabilidade de um palestino pertencer a um grupo militante, permitindo que as Forças Armadas de Israel gerem rapidamente um grande volume de alvos humanos em potencial. Outros programas algorítmicos têm nomes como Alchemist (alquimista), Depth of Wisdom (profundidade da sabedoria), Hunter (caçador) e Flow (fluxo) — este último permite aos soldados consultar vários conjuntos de dados e sua existência não tinha sido noticiada anteriormente.

Com o uso da inteligência artificial, Israel conseguiu aumentar o volume de alvos humanos em potencial Foto: Eyad Baba/EYAD BABA

Vários oficiais da divisão preocupam-se há muito com a possibilidade da tecnologia de aprendizado de máquina, que acelerou a tomada de decisões, ter ocultado equívocos. Relatórios entregues ao comando não indicaram fontes dos dados de inteligência — se derivavam de analistas humanos ou de sistemas de IA — o que dificultou para os oficiais avaliar as informações, de acordo com um ex-oficial militar graduado. Uma auditoria interna descobriu que alguns sistemas de IA para processamento da língua árabe continham imprecisões, sendo incapazes de entender gírias e frases essenciais, afirmaram dois ex-comandantes militares.

A tecnologia de aprendizado de máquina das Forças Armadas de Israel também projeta quantos civis podem ser atingidos pelos ataques, auxiliando os militares israelenses no cumprimento de um princípio fundamental do direito internacional. Na guerra de Gaza, estimativas de quantos civis podem ser feridos em um bombardeio são projetadas por meio de um software de mineração de dados, usando ferramentas de reconhecimento de imagem para analisar imagens captadas por drones associadas a dados de torres de telefonia celular para contabilizar o número de civis em uma determinada área, afirmaram duas fontes.

Em 2014, o índice aceitável de baixas civis nas operações militares de Israel era de um civil morto para cada terrorista de alto nível morto, disse o ex-assessor jurídico das Forças Armadas de Israel Tal Mimran. Na guerra de Gaza, o número aumentou para cerca de 15 civis mortos para cada militante de baixa patente do Hamas morto e ficou “exponencialmente maior” para membros de média e alta patente, de acordo com a organização israelense de direitos humanos Breaking the Silence, citando vários depoimentos de soldados israelenses. No início desta semana, New York Times colocou em 20 o número aceitável de civis mortos para cada militante de baixa patente do Hamas morto.

Publicidade

As Forças Armadas de Israel afirmam que suas avaliações sobre danos colaterais seguem o Direito Internacional dos Conflitos Armados, que determina que as nações devem diferenciar entre civis e combatentes e adotar procedimentos para proteger vidas.

Alguns defensores do uso que Israel faz da tecnologia argumentam que a implementação agressiva de inovações como a IA é essencial para a sobrevivência de um país pequeno que enfrenta inimigos resolutos e poderosos.

“Superioridade tecnológica é o que mantém Israel seguro”, disse Blaise Misztal, vice-presidente de políticas do Instituto Judaico para Segurança Nacional dos EUA, que foi informado pela divisão de inteligência das Forças Armadas de Israel sobre suas capacidades de IA em 2021. “Quanto mais rápido Israel for capaz de identificar as capacidades inimigas e retirá-las do campo de batalha, mais curta será a guerra e haverá menos baixas.”

Além das preocupações com a qualidade dos dados de inteligência produzidos por IA, o uso da tecnologia desencadeou uma mudança de paradigma polarizadora nas Forças Armadas de Israel, destronando uma cultura de inteligência que historicamente valorizou o raciocínio individual e colocando em seu lugar uma cultura que prioriza destreza tecnológica, de acordo com três fontes. A Unidade 8200 já autorizava havia muito tempo analistas de baixo escalão a ignorar chefes imediatos e emitir avisos diretos aos comandantes militares.

Publicidade

Sob o comando de Sariel e outros chefes de inteligência, a Unidade 8200 foi reestruturada para dar ênfase a engenheiros, cortando de seus quadros especialistas em língua árabe, removendo vários chefes considerados resistentes à IA e dissolvendo alguns grupos que não tenham foco em tecnologia de mineração de dados, de acordo com três fontes. No 7 de outubro, 60% dos funcionários da divisão estavam trabalhando em funções de engenharia e tecnologia, o dobro em relação a uma década atrás, de acordo com uma fonte.

As práticas de inteligência das Forças Armadas de Israel estão sob investigação. As acusações de genocídio contra Israel apresentadas ao tribunal de Haia pela África do Sul perguntam às autoridades se decisões cruciais sobre determinação de alvos de bombardeios em Gaza foram tomadas por softwares, numa investigação que pode acelerar um debate global sobre o papel da tecnologia de IA na guerra.

E Sariel disse em setembro que planeja deixar as Forças Armadas de Israel, após questionamentos crescentes sobre as falhas de inteligência que contribuíram para o ataque de 7 de outubro de 2023.

Dois ex-comandantes militares disseram acreditar que o foco intenso em IA foi uma razão significativa para Israel ter sido pego de surpresa naquele dia. O departamento enfatizou demais as inovações tecnológicas e dificultou para os analistas alertar os comandantes.

Publicidade

“Era uma fábrica de IA”, disse um ex-comandante militar, falando sob condição de anonimato para comentar assuntos de segurança nacional. “O homem foi substituído pela máquina.”

O “gargalo humano”

Sariel, por meio de um comunicado emitido pelas Forças Armadas de Israel, recusou pedidos de entrevista. E não respondeu solicitações enviadas para o seu e-mail pessoal.

Em 2019, dois anos antes de assumir como chefe de inteligência, Sariel passou um ano sabático na Universidade de Defesa Nacional, uma instituição financiada pelo Pentágono, sediada em Washington, que treina líderes de segurança nacional de todo o mundo.

Um professor da UDN, que conversou com o Post sob condição de anonimato para relatar uma relação pessoal, disse que ele e Sariel compartilhavam uma visão radical sobre IA no campo de batalha, argumentando que Israel deveria se posicionar na vanguarda em relação a aliados mais cautelosos dos EUA.

Publicidade

“Yossi dizia que: ‘Essa coisa está avançando rapidamente, mais rápido do que as pessoas conseguem perceber. E é melhor colocar todo mundo no barco’”, disse o professor.

Um livro que Sariel escreveu durante o ano sabático e publicou sob um pseudônimo expõe um argumento favorável à disseminação da automação em agências de segurança nacional. Em “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence” (A equipe homem-máquina: Como criar sinergia entre a inteligência humana e a inteligência artificial, na tradução para o português), Sariel descreve como as ações de terroristas lobos-solitários poderiam ser previstas com antecedência ao aplicar algoritmos na análise de localizações de telefones, postagens em mídias sociais, imagens de drones e comunicações privadas interceptadas.

Na visão expansiva de Sariel, a IA permearia todos os aspectos da defesa, tanto em tempos de paz quanto em guerra. Ao usar tecnologias de vigilância dotadas de IA, as fronteiras de Israel virariam “fronteiras inteligentes”. Ao coletar rastros digitais, exércitos seriam capazes de constituir “bancos de alvos” avançados, com nomes, localizações e padrões de comportamento de milhares de suspeitos. Sariel conclui que essas tecnologias poderiam substituir 80% dos analistas de inteligência especializados em línguas estrangeiras em apenas cinco anos.

Sariel retornou para Israel cheio de planos para concretizar suas visões. No verão de 2020, foi nomeado por Aviv Kohavi, então chefe do Estado-Maior do Exército e um grande defensor das ferramentas de IA, para assumir a Unidade 8200, a maior e mais prestigiosa divisão das Forças Armadas de Israel. Ex-comandantes se reuniram para expressar suas preocupações sobre a “atitude religiosa em relação à IA” que se desenvolvia na unidade sob as ordens de Sariel, disseram duas fontes.

Publicidade

Kohavi recusou-se a comentar.

Quando Sariel virou chefe oficialmente, em fevereiro de 2021, a Unidade 8200 estava fazendo experiência com ciência de dados havia mais de sete anos, disseram cinco ex-comandantes militares, e lidava com a explosão nas comunicações digitais que fornecia minas de ouro para agências de segurança nacional. A unidade de elite adquiriu reputação por coletar uma série de DMs, mensagens privadas, e-mails, registros de chamadas e outros rastros online usando tecnologias cibernéticas internas consideradas as melhores do mundo.

Mas os especialistas cibernéticos da Unidade 8200 careciam de maneiras para dar sentido aos dados que coletavam.

Após falhas de comunicação durante a guerra de 2006 contra o Hezbollah no Líbano, o Exército israelense recalculou sua estratégia para compartilhar informações e dados. Na época, as unidades de inteligência normalmente não compartilhavam informações com os soldados no campo de batalha, disse Ben Caspit, um colunista israelense do Al Monitor, que está escrevendo um livro sobre a Unidade 8200. Para evitar essas escalas, o Mossad, a agência de espionagem de Israel, e a Unidade 8200 desenvolveram um banco de dados — o “pool” — para depositar todos os dados de inteligência militar em um só repositório.

À medida que a explosão em “big data” começava no Vale do Silício, engenheiros israelenses começaram a experimentar ferramentas de mineração de dados prontas para uso que pudessem traduzir e analisar língua árabe e língua persa. Chefes da unidade debateram sobre contratar ou não especialistas, como a empresa de mineração de dados Palantir, do Vale do Silício, ou dever construir seu próprio software.

A última abordagem prevaleceu. Mas as tecnologias, embora amplamente reconhecidas como promissoras, tinham limitações. Em certas ocasiões, o grande volume de interceptações sobrecarregava os analistas da Unidade 8200. Por exemplo, os militantes do Hamas usavam frequentemente a palavra “batikh”, ou melancia, como código para bomba, disse uma das fontes familiarizadas com os esforços. Mas o sistema não era inteligente o suficiente para entender a diferença entre uma fala sobre uma melancia verdadeira e uma conversa codificada entre terroristas.

“Se capturamos mil conversas por dia, eu realmente gostaria de ouvir conversas sobre todas as melancias de Gaza?”, disse a fonte.

Ao assumir como chefe, Sariel acelerou os esforços de mineração de dados e protagonizou uma ampla reorganização que dividiu os esforços de inteligência em iniciativas que os comandantes chamavam de “fábricas de IA”, localizadas em um “centro de alvos” recém-criado na Base Aérea de Nevatim, no sul de Israel. Cada divisão projetou centenas de algoritmos e tecnologias de aprendizado de máquina desenvolvidos com esse objetivo, distribuindo projeções de softwares em toda a cadeia de comando de inteligência.

Os militares investiram em novas tecnologias de nuvem que processavam algoritmos rapidamente em preparação para um eventual conflito com o Hezbollah na fronteira norte de Israel. Um aplicativo chamado Hunter permitiu aos soldados no campo de batalha acessar informações diretamente. Um outro aplicativo móvel, chamado Z-Tube, foi construído, no qual soldados das Forças Armadas de Israel em combate podiam assistir vídeos em tempo real das áreas nas quais estavam prestes a entrar; e outro aplicativo, chamado Map It, lhes fornecia estimativas em tempo real sobre possíveis baixas civis numa área específica que havia sido esvaziada.

A Unidade 8200 mantinha há muito tempo um banco de alvos: uma lista de coordenadas precisas de GPS da infraestrutura do Hamas e do Hezbollah e de alvos humanos, geolocalizados em algum túnel específico ou andar de prédio de apartamentos. Manter o banco de alvos era trabalhoso. Analistas eram obrigados a confirmar suas descobertas com pelo menos duas fontes independentes e atualizar as informações continuamente, de acordo com três fontes familiarizadas com o programa. Antes de entrar oficialmente no banco, um alvo proposto tinha que ser “validado” por um oficial-sênior e um advogado militar para garantir que estaria em conformidade com a lei internacional, disseram cinco fontes.

Chefes de inteligência, liderados por Sariel, acreditavam que o aprendizado de máquina poderia acelerar drasticamente esse processo trabalhoso, disseram duas fontes.

“A IDI (diretoria de inteligência) levou anos para criar um banco desse tipo de alvos, mas o que acontece se você treinar a IA para imitar o trabalho do oficial que determina alvos?”, disse outro ex-oficial militar familiarizado com o novo processo de determinação de alvos.

O esforço envolveu a coleta de bilhões de sinais de sensores instalados em drones, aeronaves F-35 e monitores sísmicos subterrâneos, assim como de comunicações interceptadas. As informações foram pareadas com bancos de dados que abrigavam números de telefone, perfis de rede social, contatos conhecidos, grupos de chat e documentos internos. As informações foram inseridas em um software capaz de constatar padrões e fazer previsões sobre quem e o que poderia virar alvo.

Um algoritmo de reconhecimento de imagem foi treinado para pesquisar milhares de fotografias de satélite para identificar um tipo específico de tecido que militantes do Hamas usaram para esconder a escavação de um foguete enterrado. As ferramentas reduziram uma semana de trabalho para 30 minutos, disse o ex-oficial militar.

“Eles realmente acreditaram — com todos os sensores ao redor e acima de Gaza, mas eu não diria uma consciência informacional total — que tinham uma imagem muito boa do que estava acontecendo por lá”, disse Misztal, que lidera uma organização com foco em cooperação de segurança entre Estados Unidos e Israel. Ele observou que os militares enfatizaram seus sistemas rigorosos para verificar recomendações de alvos, em seu relatório de 2021.

O Lavender, um programa algorítmico desenvolvido em 2020, analisou dados para produzir listas de potenciais militantes do Hamas e da Jihad Islâmica, graduando cada pessoa com uma pontuação que estima sua probabilidade de ser membro, afirmaram ao Post três fontes familiarizadas com os sistemas. Fatores que podem elevar a pontuação de uma pessoa incluem figurar em algum grupo de WhatsApp com um militante conhecido, trocar endereços e números de telefone com frequência e ser identificado em arquivos do Hamas, disseram as fontes.

A existência do Lavender e os detalhes sobre seu sistema de pontuação foram noticiados pela primeira vez pelo site de notícias israelense-palestino +972.

Estimativas dos vários algoritmos inseridos no sistema maior, o Evangelho, poderiam ser consultados por analistas de inteligência.

Alguns chefes do departamento se preocuparam com a precisão desses algoritmos. Uma auditoria sobre uma tecnologia de processamento de linguagem revelou que a previsão do software não era tão precisa quanto a de um oficial humano teria sido, de acordo com duas fontes.

Outros se preocuparam com a possibilidade das previsões do software adquirirem muito peso. Normalmente, a divisão de pesquisa produzia relatórios diários de inteligência para os comandantes revisarem alvos em potencial. Mas apesar de um analista individual poder analisar as informações que levaram à previsão, os comandantes não eram informados se uma recomendação era definida por meio de um algoritmo ou de um humano.

“Tudo era tratado como se fosse a mesma coisa”, disse outra ex-alta autoridade. “Não tenho certeza se a pessoa que preparou o relatório sabia a diferença entre as informações.”

Dois ex-comandantes disseram ao Post que a ênfase na tecnologia corroeu a “cultura de alerta” da Unidade 8200, onde até mesmo analistas de baixo escalão podiam facilmente informar os principais comandantes sobre preocupações. Essa mudança, acrescentaram as fontes, é uma razão significativa para Israel ter sido surpreendido pelo ataque de 7 de outubro de 2023: uma analista experiente que tinha descoberto os planos do Hamas para invadir as fronteiras de Israel no campo de batalha não conseguiu reunir-se com os principais comandantes da unidade a tempo.

“O ponto principal é que você não pode substituir a pessoa que grita, ‘Ei, isso é perigoso’, por todas as tecnologias avançadas de IA do mundo”, disse Caspit, o jornalista israelense que entrevistou todos os comandantes vivos da Unidade 8200 para escrever seu livro. “Essa a arrogância que infectou a unidade inteira.”

Em 2023, Kohavi, recentemente aposentado do comando do Estado-Maior do Exército, gabou-se para um meio de comunicação de que os novos sistemas de IA deram às Forças Armadas de Israel um aparato de inteligência em tempo real sofisticado, “semelhante ao filme ‘Matrix’”. Antes do Evangelho, os analistas eram capazes de determinar 50 alvos novos em Gaza por ano para inserir no banco de alvos. “Quando a máquina foi ativada”, disse ele, ela determinou 100 alvos por dia.

Em seu livro, Sariel argumentou que a IA seria especialmente útil em tempos de guerra, quando seria capaz de acelerar a determinação de alvos e “arrebentar” o “gargalo humano” que retardava todo o processo.

Em junho de 2021, Israel teve sua primeira chance de lançar o novo banco de alvos alimentado por algoritmo. Durante a guerra de 11 dias entre Israel e o Hamas, as Forças Armadas israelenses usaram ciência de dados para atingir 450 alvos, incluindo o comando de um esquadrão de mísseis do Hamas e uma das unidades de mísseis antitanque do grupo, de acordo com uma palestra proferida por um comandante da Unidade 8200 na Universidade de Tel-Aviv.

Os comandantes militares aproveitaram a oportunidade para promover e discutir a revolução da IA que ocorria em Nevatim e na sede da Unidade 8200, ao norte de Tel-Aviv. Tudo o que os comandantes “queriam era falar sobre ‘a primeira guerra com IA do mundo’”, disse Misztal.

Uma fábrica de alvos amplificada

O Direito Internacional Humanitário exige que nações em guerra equilibrem a vantagem militar antecipada de um ataque em função dos danos colaterais esperados contra os civis, um princípio conhecido como proporcionalidade ou padrão de razoabilidade do comando militar.

Os tratados, que Israel só ratificou parcialmente, não levam em consideração a inteligência artificial. O processamento de dados de inteligência militar atende “à definição do direito internacional para (de determinação de) um alvo legal”, disseram as Forças Armadas de Israel em um comunicado emitido neste verão (Hemisfério Norte).

Tratados internacionais, que Israel só ratificou parcialmente, não levam em consideração a inteligência artificial; governo israelense tem usado inteligência artificial em Gaza Foto: Omar Al-qattaa/OMAR AL-QATTAA

Segundo admite Israel, a IA desempenhou um grande papel no processo de determinação de alvos em Gaza. Poucos dias após os ataques de 7 de outubro de 2023, munições Mark 80 de 900 quilos, fabricadas nos EUA, caíram no território.

Em um comunicado à imprensa emitido em 2 de novembro de 2023, as Forças Armadas de Israel anunciaram que o Evangelho tinha colaborado no bombardeio de 12 mil alvos em Gaza. Ao som de uma música dramática, durante um vídeo que exibia prédios explodindo, o comunicado anunciava “uma colaboração inédita”, na qual a inteligência da fábrica de alvos de IA estava sendo enviada em tempo real para forças terrestres, aéreas e navais — permitindo que centenas de ataques fossem “realizados em um instante”.

O historiador israelense Adam Raz, que entrevistou soldados e comandantes sobre o uso de IA pela Unidade 8200, disse que, segundo seu cálculo, as Forças Armadas de Israel estavam atingindo aproximadamente dois alvos por minuto no auge dos bombardeios — o que ele classificou como um índice “assombroso”.

Um oficial de inteligência disse ao Post que testemunhou as Forças Armadas de Israel usando IA para cortar custos na tomada de decisão sobre determinação de alvos. O soldado falou sob condição de anonimato porque é crime em Israel revelar tecnologias militares sem aprovação do governo.

Nos primeiros dias da guerra, a fábrica de alvos operou a pleno vapor, com cerca de 300 soldados trabalhando 24 horas por dia. Muitos analistas eram obrigados a avaliar alvos recomendados pelo Evangelho e pelo Lavender, um processo que podia levar de 3 minutos a 5 horas.

A regra que obrigava dois operadores de inteligência humanos a validar uma previsão do Lavender foi reduzida no início da guerra, para uma revisão, de acordo com duas fontes familiarizadas com os esforços. Em alguns casos na divisão de Gaza, soldados mal treinados no uso da tecnologia atacaram alvos humanos sem corroborar as previsões do Lavender, disse o soldado.

Em certos momentos, a única confirmação necessária era que o alvo fosse do sexo masculino, afirmou outra fonte familiarizada com os esforços.

“Você começa com o Lavender, e então faz o trabalho de inteligência”, disse a fonte. “No começo da guerra, eles cortaram o trabalho pela metade — o que é bom, porque é guerra. O problema é que às vezes eles cortam todo o trabalho.”

Para localizar rapidamente as pessoas que o Lavender sinalizava como prováveis membros do Hamas, as Forças Armadas de Israel obtiveram fotos em tempo real das pessoas dentro de suas casas usando um método que o soldado se recusou a descrever. Ferramentas de reconhecimento facial personalizadas permitiram que eles comparassem as fotos com imagens existentes de membros do Hamas no banco de dados do Lavender.

Apesar de as correspondências parecerem precisas, disse a fonte, alguns soldados ficaram preocupados com a possibilidade de os militares confiarem somente na tecnologia, sem comprovação de que os alvos ainda integravam ativamente a organização terrorista.

Preocupações com a proporcionalidade também ficaram em segundo plano: algumas pessoas registradas nas fotos podiam ser parentes dos suspeitos, e os comandantes das Forças Armadas de Israel aceitaram que elas também fossem mortas em um ataque, disse o soldado.

Em um determinado momento, a unidade desse soldado recebeu ordens de usar um software para estimar as baixas civis em um bombardeio contra aproximadamente 50 edifícios no norte de Gaza. Os analistas da unidade receberam uma fórmula simples: dividir o número de pessoas em um distrito pelo número estimado de pessoas que vivem lá — obtendo o primeiro número em função da contagem dos telefones conectados a uma torre de celular próxima.

Usando sinais semafóricos, com cores vermelho, amarelo ou verde, o sistema emitiria luz verde se um prédio tivesse uma taxa de ocupação de 25% ou menos — um limite considerado suficiente para que um comandante tomasse a decisão de bombardear ou não.

O soldado disse que ficou surpreso com a análise, que considerou simplificada demais. O processo não levou em conta a possibilidade de telefones poderem estar desligados ou sem bateria, nem a variável de crianças poderem não possuir celulares. Sem a IA, os militares poderiam ter telefonado para as pessoas para checar se elas estavam em suas residências, disse o soldado, um esforço manual que teria sido mais preciso, mas leva muito mais tempo.

Os sistemas de IA têm imprecisões embutidas que os tornam inapropriados em um contexto de vida ou morte, como a guerra, disse Heidy Khlaaf, cientista-chefe de inteligência artificial no AI Institute, uma organização sem fins lucrativos sediada em Nova York que produz recomendações de políticas. Khlaaf, que critica Israel abertamente, observou que a indústria de veículos autônomos passou a última década tentando, com pouco sucesso, fazer com que seus algoritmos de aprendizado de máquina atingissem 100% de precisão.

Mimran, o ex-advogado das Forças Armadas de Israel, disse ainda acreditar que os militares ocidentais devam adotar ferramentas de IA para combater rivais como a China, mas se preocupa com a precisão da tomada de decisões produzida por IA em meio à alta pressão de uma guerra.

“Para a velocidade, é um divisor de águas. Mas e em termos de qualidade?”, disse Mimran. “Acho que não.”

A Unidade 8200 também se esforça atualmente para contratar mais analistas e auditores de software que falem árabe, afirmaram três fontes.

E as autoridades israelenses deixaram de propagandear o uso da IA. Na entrevista de 2023, Kohavi pareceu reconhecer os desafios. A IA pode “deter muito mais conhecimento do que qualquer indivíduo”, disse ele, “potencialmente confiando mais em suas próprias decisões do que nas nossas”. / TRADUÇÃO DE GUILHERME RUSSO

Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.