Como seria uma guerra com o uso de Inteligência Artificial? Olhe para Israel em Gaza


Segundo uma investigação de veículos israelenses, as Forças de Defesa de Israel tem realizado operações militares na Faixa de Gaza com o uso de programas de inteligência artificial

Por David Wallace-Wells

Em novembro, os veículos israelenses de esquerda +972 magazine e Local Call publicaram uma investigação perturbadora do jornalista Yuval Abraham sobre o uso pelas Forças de Defesa de Israel de um sistema de inteligência artificial para identificar alvos em Gaza - que um ex-funcionário da inteligência descreveu como uma “fábrica de assassinatos em massa”.

No final de um ano marcado por visões de um apocalipse de I.A. - visões que, às vezes, incluíam sistemas de armas autônomas que se tornavam desonestos - era de se esperar uma reação alarmada. Em vez disso, a notícia de que uma guerra estava sendo conduzida em parte pela I.A. causou apenas uma pequena agitação nos debates sobre a conduta de Israel em Gaza.

Talvez isso tenha acontecido em parte porque - de modo enervante - os especialistas aceitam que as formas de I.A. já estão sendo amplamente utilizadas pelas principais Forças Armadas do mundo, inclusive nos Estados Unidos, onde o Pentágono vem desenvolvendo I.A. para fins militares pelo menos desde o governo Obama. De acordo com a revista americana Foreign Affairs, pelo menos 30 países operam atualmente sistemas de defesa que possuem modos autônomos. Muitos de nós ainda consideram as guerras de inteligência artificial como visões de um futuro de ficção científica, mas a I.A. já está inserida nas operações militares globais com a mesma certeza com que está inserida no tecido de nossa vida cotidiana.

continua após a publicidade
Tanques do Exército de Israel vigiam a fronteira entre Israel e a Faixa de Gaza  Foto: Jack Guez/AFP

Não é apenas a I.A. fora de controle que representa uma ameaça. Sistemas sem controle também podem causar danos. O The Washington Post chamou a guerra na Ucrânia de “super laboratório de invenções”, marcando uma “revolução na guerra de drones usando I.A.”. O Pentágono está desenvolvendo uma resposta aos enxames de drones movidos a IA, uma ameaça que se tornou menos distante ao combater os ataques de drones dos Houthis do Iêmen no Mar Vermelho.

De acordo com a The Associated Press, alguns analistas sugeriram que é apenas uma questão de tempo até que “os drones sejam usados para identificar, selecionar e atacar alvos sem a ajuda de humanos”. Esses enxames, dirigidos por sistemas que operam rápido demais para a supervisão humana, “estão prestes a mudar o equilíbrio do poder militar”, previram Elliot Ackerman e o almirante James Stavridis, ex-comandante aliado da OTAN, no The Wall Street Journal no mês passado. Outros sugeriram que esse futuro já chegou.

continua após a publicidade

Assim como a invasão da Ucrânia, a feroz ofensiva em Gaza às vezes parece um retrocesso, em alguns aspectos mais parecida com uma guerra total do século XX do que com as contrainsurgências e campanhas inteligentes às quais os americanos estão mais acostumados. Em dezembro, quase 70% das casas de Gaza e mais da metade de seus edifícios haviam sido danificados ou destruídos. Atualmente, menos de um terço dos hospitais continuam funcionando e 1,1 milhão de habitantes de Gaza estão enfrentando uma insegurança alimentar “catastrófica”, de acordo com as Nações Unidas. Pode parecer um conflito antiquado, mas a ofensiva das Forças de Defesa de Israel também é um indício ameaçador do futuro militar - tanto em termos de execução quanto de vigilância por meio de tecnologias que surgiram apenas desde o início da guerra contra o terrorismo.

Na semana passada, a +972 e a Local Call publicaram uma investigação de acompanhamento feita por Abraham, que vale muito a pena ler na íntegra. (O Guardian também publicou um artigo com base na mesma reportagem, sob o título “The Machine Did It Coldly”. A reportagem foi levada ao conhecimento de John Kirby, porta-voz de segurança nacional dos EUA, e discutida por Aida Touma-Sliman, membro árabe israelense do Knesset, e pelo secretário-geral das Nações Unidas, António Guterres, que disse estar “profundamente perturbado” com ela).

Palestinos deslocados começam a retornar para Khan Yunis após a saída das tropas israelenses da cidade que fica no sul da Faixa de Gaza  Foto: Haitham Imad/EFE
continua após a publicidade

O relatório de novembro descreve um sistema chamado Habsora (o Evangelho), que, de acordo com os atuais e ex-oficiais da inteligência israelense entrevistados por Abraham, identifica “prédios e estruturas de onde o exército afirma que os militantes operam”. A nova investigação, que foi contestada pelas Forças de Defesa de Israel, documenta outro sistema, conhecido como Lavender, usado para compilar uma “lista de morte” de combatentes suspeitos. O sistema Lavender, escreve ele, “desempenhou um papel central no bombardeio sem precedentes de palestinos, especialmente durante os estágios iniciais da guerra”.

Segundo Abraham, a destruição de Gaza - a morte de mais de 30.000 palestinos, a maioria civis, incluindo mais de 13.000 crianças - oferece uma visão da guerra conduzida pela IA. “De acordo com as fontes”, escreve ele, “sua influência sobre as operações militares era tal que eles basicamente tratavam os resultados da máquina de IA ‘como se fosse uma decisão humana’”, embora o algoritmo tivesse uma taxa de erro reconhecida de 10%. Uma fonte disse a Abraham que os humanos normalmente revisavam cada recomendação por apenas 20 segundos - “só para ter certeza de que o alvo marcado era do sexo masculino” - antes de carimbar e autorizar à recomendação.

As questões mais abstratas levantadas pela perspectiva de uma guerra com I.A. são inquietantes, não apenas no que se refere ao erro da máquina, mas também à responsabilidade final: Quem é responsável por um ataque ou uma campanha conduzida com pouca ou nenhuma participação ou supervisão humana? Mas, embora um dos pesadelos da I.A. militar seja o controle da tomada de decisões, outro é que ela ajuda os exércitos a se tornarem simplesmente mais eficientes nas decisões que já estão sendo tomadas.

continua após a publicidade

E, como Abraham descreve, o sistema Lavender não está causando estragos em Gaza por conta de seus próprios erros de decisão. Em vez disso, ele está sendo usado para pesar o valor militar provável em relação aos danos colaterais de maneiras muito específicas - menos como um oráculo de julgamento militar ou um buraco negro de responsabilidade moral e mais como o projeto revelado dos objetivos de guerra das Forças de Defesa de Israel.

Em um determinado momento de outubro, relata Abraham, as Forças de Defesa de Israel visaram combatentes juniores identificados pelo sistema Lavender somente se o provável dano colateral pudesse ser limitado a 15 ou 20 mortes de civis - um número grande, já que nenhum dano colateral havia sido considerado aceitável para combatentes de baixo escalão.

continua após a publicidade

Os comandantes mais graduados, segundo Abraham, seriam alvos mesmo que isso significasse matar mais de 100 civis. Um segundo programa, chamado Where’s Daddy? (Onde está o papai?), foi usado para rastrear os combatentes até suas casas antes de atingi-los, escreve Abraham, porque fazer isso nesses locais, junto com suas famílias, era “mais fácil” do que rastreá-los até postos militares. E, cada vez mais, para evitar o desperdício de bombas inteligentes para atingir as residências de supostos agentes subalternos, as Forças de Defesa de Israel optaram por usar bombas burras muito menos precisas.

Isso não é exatamente a magia sombria da I.A. da ficção científica. É mais como um fenômeno do Mágico de Oz: O que a princípio parece ser um espetáculo de outro mundo acaba sendo um homem atrás de uma cortina, mexendo nos interruptores. De fato, em sua resposta ao novo relatório, as Forças de Defesa de Israel disseram que “não usam um sistema de inteligência artificial para identificar agentes terroristas”, escrevendo que “os sistemas de informação são meramente ferramentas para analistas no processo de identificação de alvos”.

As Forças de Defesa de Israel já haviam se gabado do uso de IA para atacar o Hamas e, de acordo com o jornal israelense Haaretz, estabeleceram amplas “zonas de morte” em Gaza, onde qualquer pessoa que passasse por elas seria considerada terrorista e alvejada. (Na CNN, o analista Barak Ravid contou a Anderson Cooper sobre uma conversa que teve com um oficial da reserva israelense que lhe disse que “as ordens são basicamente - dos comandantes em campo - atirar em todos os homens em idade de lutar”, uma descrição que corresponde aos comentários feitos na semana passada pelo ex-diretor da C.I.A. e secretário de defesa Leon Panetta, que disse: “Pela minha experiência, os israelenses geralmente atiram e depois fazem perguntas”).

continua após a publicidade
Tanques israelenses participam de treinamento na fronteira entre Israel e a Faixa de Gaza  Foto: Tsafrir Abayov/AP

Para onde vão as coisas a partir de agora? A pergunta não se aplica apenas à conduta de Israel em Gaza ou à escalada dos drones na Ucrânia, onde combates sem piloto já moldaram o curso da guerra, onde a Rússia implementou ferramentas de guerra eletrônica para bloquear os drones ucranianos e onde, de acordo com uma análise da War on the Rocks, a Rússia está “tentando fazer progressos para automatizar toda a cadeia de destruição”.

Em um ensaio de fevereiro, “The Perilous Coming Age of A.I. Warfare”, Paul Scharre, do Center for a New American Security, esboça uma série de possíveis futuros de curto prazo, desde enxames autônomos que entram em batalha uns com os outros de forma tão independente quanto os bots de negociação de alta frequência até a possibilidade de que a I.A. possa receber autoridade sobre os arsenais nucleares existentes.

Ele também apresenta um plano proativo e possivelmente otimista de cinco pontos: que os governos concordem com a supervisão humana da I.A. militar, que proíbam as armas autônomas que têm como alvo as pessoas, que desenvolvam um protocolo de práticas recomendadas para evitar acidentes, que as nações restrinjam o controle sobre as armas nucleares aos seres humanos e que os países adotem um guia convencional para a conduta dos drones. “Sem limites, a humanidade corre o risco de se precipitar em direção a um futuro de guerra perigosa e movida por máquinas”, escreve Scharre, e a janela para agir está “se fechando rapidamente”.

Um civil palestino faz um pão tradicional em uma tenda em Rafah, local que abriga mais de 1 milhão de civis palestinos que foram deslocados  Foto: Haitham Imad/EFE

Nem todos concordam que estamos nos aproximando do equivalente a uma singularidade militar, após a qual a guerra se tornará irreconhecível, em vez de uma evolução mais lenta, com mais mudanças abaixo da superfície. “As revoluções militares costumam ser menos radicais do que inicialmente presumido por seus defensores”, escreve o acadêmico militar Anthony King para o site War on the Rocks. E, embora ele acredite que não estejamos tão perto do fim da supervisão humana e considere “muito improvável” que nos encontremos em um mundo de guerra verdadeiramente autônoma tão cedo, ele também acredita que “os dados e a I.A. são uma - talvez até mesmo a - função de inteligência essencial para a guerra contemporânea”.

De fato, “qualquer força militar que queira prevalecer nos campos de batalha do futuro precisará aproveitar o potencial do big data - ela terá que dominar as informações digitalizadas que inundam o espaço de batalha”, escreve ele. “Os seres humanos simplesmente não têm a capacidade de fazer isso.” Presumivelmente, a I.A. o fará.

Em novembro, os veículos israelenses de esquerda +972 magazine e Local Call publicaram uma investigação perturbadora do jornalista Yuval Abraham sobre o uso pelas Forças de Defesa de Israel de um sistema de inteligência artificial para identificar alvos em Gaza - que um ex-funcionário da inteligência descreveu como uma “fábrica de assassinatos em massa”.

No final de um ano marcado por visões de um apocalipse de I.A. - visões que, às vezes, incluíam sistemas de armas autônomas que se tornavam desonestos - era de se esperar uma reação alarmada. Em vez disso, a notícia de que uma guerra estava sendo conduzida em parte pela I.A. causou apenas uma pequena agitação nos debates sobre a conduta de Israel em Gaza.

Talvez isso tenha acontecido em parte porque - de modo enervante - os especialistas aceitam que as formas de I.A. já estão sendo amplamente utilizadas pelas principais Forças Armadas do mundo, inclusive nos Estados Unidos, onde o Pentágono vem desenvolvendo I.A. para fins militares pelo menos desde o governo Obama. De acordo com a revista americana Foreign Affairs, pelo menos 30 países operam atualmente sistemas de defesa que possuem modos autônomos. Muitos de nós ainda consideram as guerras de inteligência artificial como visões de um futuro de ficção científica, mas a I.A. já está inserida nas operações militares globais com a mesma certeza com que está inserida no tecido de nossa vida cotidiana.

Tanques do Exército de Israel vigiam a fronteira entre Israel e a Faixa de Gaza  Foto: Jack Guez/AFP

Não é apenas a I.A. fora de controle que representa uma ameaça. Sistemas sem controle também podem causar danos. O The Washington Post chamou a guerra na Ucrânia de “super laboratório de invenções”, marcando uma “revolução na guerra de drones usando I.A.”. O Pentágono está desenvolvendo uma resposta aos enxames de drones movidos a IA, uma ameaça que se tornou menos distante ao combater os ataques de drones dos Houthis do Iêmen no Mar Vermelho.

De acordo com a The Associated Press, alguns analistas sugeriram que é apenas uma questão de tempo até que “os drones sejam usados para identificar, selecionar e atacar alvos sem a ajuda de humanos”. Esses enxames, dirigidos por sistemas que operam rápido demais para a supervisão humana, “estão prestes a mudar o equilíbrio do poder militar”, previram Elliot Ackerman e o almirante James Stavridis, ex-comandante aliado da OTAN, no The Wall Street Journal no mês passado. Outros sugeriram que esse futuro já chegou.

Assim como a invasão da Ucrânia, a feroz ofensiva em Gaza às vezes parece um retrocesso, em alguns aspectos mais parecida com uma guerra total do século XX do que com as contrainsurgências e campanhas inteligentes às quais os americanos estão mais acostumados. Em dezembro, quase 70% das casas de Gaza e mais da metade de seus edifícios haviam sido danificados ou destruídos. Atualmente, menos de um terço dos hospitais continuam funcionando e 1,1 milhão de habitantes de Gaza estão enfrentando uma insegurança alimentar “catastrófica”, de acordo com as Nações Unidas. Pode parecer um conflito antiquado, mas a ofensiva das Forças de Defesa de Israel também é um indício ameaçador do futuro militar - tanto em termos de execução quanto de vigilância por meio de tecnologias que surgiram apenas desde o início da guerra contra o terrorismo.

Na semana passada, a +972 e a Local Call publicaram uma investigação de acompanhamento feita por Abraham, que vale muito a pena ler na íntegra. (O Guardian também publicou um artigo com base na mesma reportagem, sob o título “The Machine Did It Coldly”. A reportagem foi levada ao conhecimento de John Kirby, porta-voz de segurança nacional dos EUA, e discutida por Aida Touma-Sliman, membro árabe israelense do Knesset, e pelo secretário-geral das Nações Unidas, António Guterres, que disse estar “profundamente perturbado” com ela).

Palestinos deslocados começam a retornar para Khan Yunis após a saída das tropas israelenses da cidade que fica no sul da Faixa de Gaza  Foto: Haitham Imad/EFE

O relatório de novembro descreve um sistema chamado Habsora (o Evangelho), que, de acordo com os atuais e ex-oficiais da inteligência israelense entrevistados por Abraham, identifica “prédios e estruturas de onde o exército afirma que os militantes operam”. A nova investigação, que foi contestada pelas Forças de Defesa de Israel, documenta outro sistema, conhecido como Lavender, usado para compilar uma “lista de morte” de combatentes suspeitos. O sistema Lavender, escreve ele, “desempenhou um papel central no bombardeio sem precedentes de palestinos, especialmente durante os estágios iniciais da guerra”.

Segundo Abraham, a destruição de Gaza - a morte de mais de 30.000 palestinos, a maioria civis, incluindo mais de 13.000 crianças - oferece uma visão da guerra conduzida pela IA. “De acordo com as fontes”, escreve ele, “sua influência sobre as operações militares era tal que eles basicamente tratavam os resultados da máquina de IA ‘como se fosse uma decisão humana’”, embora o algoritmo tivesse uma taxa de erro reconhecida de 10%. Uma fonte disse a Abraham que os humanos normalmente revisavam cada recomendação por apenas 20 segundos - “só para ter certeza de que o alvo marcado era do sexo masculino” - antes de carimbar e autorizar à recomendação.

As questões mais abstratas levantadas pela perspectiva de uma guerra com I.A. são inquietantes, não apenas no que se refere ao erro da máquina, mas também à responsabilidade final: Quem é responsável por um ataque ou uma campanha conduzida com pouca ou nenhuma participação ou supervisão humana? Mas, embora um dos pesadelos da I.A. militar seja o controle da tomada de decisões, outro é que ela ajuda os exércitos a se tornarem simplesmente mais eficientes nas decisões que já estão sendo tomadas.

E, como Abraham descreve, o sistema Lavender não está causando estragos em Gaza por conta de seus próprios erros de decisão. Em vez disso, ele está sendo usado para pesar o valor militar provável em relação aos danos colaterais de maneiras muito específicas - menos como um oráculo de julgamento militar ou um buraco negro de responsabilidade moral e mais como o projeto revelado dos objetivos de guerra das Forças de Defesa de Israel.

Em um determinado momento de outubro, relata Abraham, as Forças de Defesa de Israel visaram combatentes juniores identificados pelo sistema Lavender somente se o provável dano colateral pudesse ser limitado a 15 ou 20 mortes de civis - um número grande, já que nenhum dano colateral havia sido considerado aceitável para combatentes de baixo escalão.

Os comandantes mais graduados, segundo Abraham, seriam alvos mesmo que isso significasse matar mais de 100 civis. Um segundo programa, chamado Where’s Daddy? (Onde está o papai?), foi usado para rastrear os combatentes até suas casas antes de atingi-los, escreve Abraham, porque fazer isso nesses locais, junto com suas famílias, era “mais fácil” do que rastreá-los até postos militares. E, cada vez mais, para evitar o desperdício de bombas inteligentes para atingir as residências de supostos agentes subalternos, as Forças de Defesa de Israel optaram por usar bombas burras muito menos precisas.

Isso não é exatamente a magia sombria da I.A. da ficção científica. É mais como um fenômeno do Mágico de Oz: O que a princípio parece ser um espetáculo de outro mundo acaba sendo um homem atrás de uma cortina, mexendo nos interruptores. De fato, em sua resposta ao novo relatório, as Forças de Defesa de Israel disseram que “não usam um sistema de inteligência artificial para identificar agentes terroristas”, escrevendo que “os sistemas de informação são meramente ferramentas para analistas no processo de identificação de alvos”.

As Forças de Defesa de Israel já haviam se gabado do uso de IA para atacar o Hamas e, de acordo com o jornal israelense Haaretz, estabeleceram amplas “zonas de morte” em Gaza, onde qualquer pessoa que passasse por elas seria considerada terrorista e alvejada. (Na CNN, o analista Barak Ravid contou a Anderson Cooper sobre uma conversa que teve com um oficial da reserva israelense que lhe disse que “as ordens são basicamente - dos comandantes em campo - atirar em todos os homens em idade de lutar”, uma descrição que corresponde aos comentários feitos na semana passada pelo ex-diretor da C.I.A. e secretário de defesa Leon Panetta, que disse: “Pela minha experiência, os israelenses geralmente atiram e depois fazem perguntas”).

Tanques israelenses participam de treinamento na fronteira entre Israel e a Faixa de Gaza  Foto: Tsafrir Abayov/AP

Para onde vão as coisas a partir de agora? A pergunta não se aplica apenas à conduta de Israel em Gaza ou à escalada dos drones na Ucrânia, onde combates sem piloto já moldaram o curso da guerra, onde a Rússia implementou ferramentas de guerra eletrônica para bloquear os drones ucranianos e onde, de acordo com uma análise da War on the Rocks, a Rússia está “tentando fazer progressos para automatizar toda a cadeia de destruição”.

Em um ensaio de fevereiro, “The Perilous Coming Age of A.I. Warfare”, Paul Scharre, do Center for a New American Security, esboça uma série de possíveis futuros de curto prazo, desde enxames autônomos que entram em batalha uns com os outros de forma tão independente quanto os bots de negociação de alta frequência até a possibilidade de que a I.A. possa receber autoridade sobre os arsenais nucleares existentes.

Ele também apresenta um plano proativo e possivelmente otimista de cinco pontos: que os governos concordem com a supervisão humana da I.A. militar, que proíbam as armas autônomas que têm como alvo as pessoas, que desenvolvam um protocolo de práticas recomendadas para evitar acidentes, que as nações restrinjam o controle sobre as armas nucleares aos seres humanos e que os países adotem um guia convencional para a conduta dos drones. “Sem limites, a humanidade corre o risco de se precipitar em direção a um futuro de guerra perigosa e movida por máquinas”, escreve Scharre, e a janela para agir está “se fechando rapidamente”.

Um civil palestino faz um pão tradicional em uma tenda em Rafah, local que abriga mais de 1 milhão de civis palestinos que foram deslocados  Foto: Haitham Imad/EFE

Nem todos concordam que estamos nos aproximando do equivalente a uma singularidade militar, após a qual a guerra se tornará irreconhecível, em vez de uma evolução mais lenta, com mais mudanças abaixo da superfície. “As revoluções militares costumam ser menos radicais do que inicialmente presumido por seus defensores”, escreve o acadêmico militar Anthony King para o site War on the Rocks. E, embora ele acredite que não estejamos tão perto do fim da supervisão humana e considere “muito improvável” que nos encontremos em um mundo de guerra verdadeiramente autônoma tão cedo, ele também acredita que “os dados e a I.A. são uma - talvez até mesmo a - função de inteligência essencial para a guerra contemporânea”.

De fato, “qualquer força militar que queira prevalecer nos campos de batalha do futuro precisará aproveitar o potencial do big data - ela terá que dominar as informações digitalizadas que inundam o espaço de batalha”, escreve ele. “Os seres humanos simplesmente não têm a capacidade de fazer isso.” Presumivelmente, a I.A. o fará.

Em novembro, os veículos israelenses de esquerda +972 magazine e Local Call publicaram uma investigação perturbadora do jornalista Yuval Abraham sobre o uso pelas Forças de Defesa de Israel de um sistema de inteligência artificial para identificar alvos em Gaza - que um ex-funcionário da inteligência descreveu como uma “fábrica de assassinatos em massa”.

No final de um ano marcado por visões de um apocalipse de I.A. - visões que, às vezes, incluíam sistemas de armas autônomas que se tornavam desonestos - era de se esperar uma reação alarmada. Em vez disso, a notícia de que uma guerra estava sendo conduzida em parte pela I.A. causou apenas uma pequena agitação nos debates sobre a conduta de Israel em Gaza.

Talvez isso tenha acontecido em parte porque - de modo enervante - os especialistas aceitam que as formas de I.A. já estão sendo amplamente utilizadas pelas principais Forças Armadas do mundo, inclusive nos Estados Unidos, onde o Pentágono vem desenvolvendo I.A. para fins militares pelo menos desde o governo Obama. De acordo com a revista americana Foreign Affairs, pelo menos 30 países operam atualmente sistemas de defesa que possuem modos autônomos. Muitos de nós ainda consideram as guerras de inteligência artificial como visões de um futuro de ficção científica, mas a I.A. já está inserida nas operações militares globais com a mesma certeza com que está inserida no tecido de nossa vida cotidiana.

Tanques do Exército de Israel vigiam a fronteira entre Israel e a Faixa de Gaza  Foto: Jack Guez/AFP

Não é apenas a I.A. fora de controle que representa uma ameaça. Sistemas sem controle também podem causar danos. O The Washington Post chamou a guerra na Ucrânia de “super laboratório de invenções”, marcando uma “revolução na guerra de drones usando I.A.”. O Pentágono está desenvolvendo uma resposta aos enxames de drones movidos a IA, uma ameaça que se tornou menos distante ao combater os ataques de drones dos Houthis do Iêmen no Mar Vermelho.

De acordo com a The Associated Press, alguns analistas sugeriram que é apenas uma questão de tempo até que “os drones sejam usados para identificar, selecionar e atacar alvos sem a ajuda de humanos”. Esses enxames, dirigidos por sistemas que operam rápido demais para a supervisão humana, “estão prestes a mudar o equilíbrio do poder militar”, previram Elliot Ackerman e o almirante James Stavridis, ex-comandante aliado da OTAN, no The Wall Street Journal no mês passado. Outros sugeriram que esse futuro já chegou.

Assim como a invasão da Ucrânia, a feroz ofensiva em Gaza às vezes parece um retrocesso, em alguns aspectos mais parecida com uma guerra total do século XX do que com as contrainsurgências e campanhas inteligentes às quais os americanos estão mais acostumados. Em dezembro, quase 70% das casas de Gaza e mais da metade de seus edifícios haviam sido danificados ou destruídos. Atualmente, menos de um terço dos hospitais continuam funcionando e 1,1 milhão de habitantes de Gaza estão enfrentando uma insegurança alimentar “catastrófica”, de acordo com as Nações Unidas. Pode parecer um conflito antiquado, mas a ofensiva das Forças de Defesa de Israel também é um indício ameaçador do futuro militar - tanto em termos de execução quanto de vigilância por meio de tecnologias que surgiram apenas desde o início da guerra contra o terrorismo.

Na semana passada, a +972 e a Local Call publicaram uma investigação de acompanhamento feita por Abraham, que vale muito a pena ler na íntegra. (O Guardian também publicou um artigo com base na mesma reportagem, sob o título “The Machine Did It Coldly”. A reportagem foi levada ao conhecimento de John Kirby, porta-voz de segurança nacional dos EUA, e discutida por Aida Touma-Sliman, membro árabe israelense do Knesset, e pelo secretário-geral das Nações Unidas, António Guterres, que disse estar “profundamente perturbado” com ela).

Palestinos deslocados começam a retornar para Khan Yunis após a saída das tropas israelenses da cidade que fica no sul da Faixa de Gaza  Foto: Haitham Imad/EFE

O relatório de novembro descreve um sistema chamado Habsora (o Evangelho), que, de acordo com os atuais e ex-oficiais da inteligência israelense entrevistados por Abraham, identifica “prédios e estruturas de onde o exército afirma que os militantes operam”. A nova investigação, que foi contestada pelas Forças de Defesa de Israel, documenta outro sistema, conhecido como Lavender, usado para compilar uma “lista de morte” de combatentes suspeitos. O sistema Lavender, escreve ele, “desempenhou um papel central no bombardeio sem precedentes de palestinos, especialmente durante os estágios iniciais da guerra”.

Segundo Abraham, a destruição de Gaza - a morte de mais de 30.000 palestinos, a maioria civis, incluindo mais de 13.000 crianças - oferece uma visão da guerra conduzida pela IA. “De acordo com as fontes”, escreve ele, “sua influência sobre as operações militares era tal que eles basicamente tratavam os resultados da máquina de IA ‘como se fosse uma decisão humana’”, embora o algoritmo tivesse uma taxa de erro reconhecida de 10%. Uma fonte disse a Abraham que os humanos normalmente revisavam cada recomendação por apenas 20 segundos - “só para ter certeza de que o alvo marcado era do sexo masculino” - antes de carimbar e autorizar à recomendação.

As questões mais abstratas levantadas pela perspectiva de uma guerra com I.A. são inquietantes, não apenas no que se refere ao erro da máquina, mas também à responsabilidade final: Quem é responsável por um ataque ou uma campanha conduzida com pouca ou nenhuma participação ou supervisão humana? Mas, embora um dos pesadelos da I.A. militar seja o controle da tomada de decisões, outro é que ela ajuda os exércitos a se tornarem simplesmente mais eficientes nas decisões que já estão sendo tomadas.

E, como Abraham descreve, o sistema Lavender não está causando estragos em Gaza por conta de seus próprios erros de decisão. Em vez disso, ele está sendo usado para pesar o valor militar provável em relação aos danos colaterais de maneiras muito específicas - menos como um oráculo de julgamento militar ou um buraco negro de responsabilidade moral e mais como o projeto revelado dos objetivos de guerra das Forças de Defesa de Israel.

Em um determinado momento de outubro, relata Abraham, as Forças de Defesa de Israel visaram combatentes juniores identificados pelo sistema Lavender somente se o provável dano colateral pudesse ser limitado a 15 ou 20 mortes de civis - um número grande, já que nenhum dano colateral havia sido considerado aceitável para combatentes de baixo escalão.

Os comandantes mais graduados, segundo Abraham, seriam alvos mesmo que isso significasse matar mais de 100 civis. Um segundo programa, chamado Where’s Daddy? (Onde está o papai?), foi usado para rastrear os combatentes até suas casas antes de atingi-los, escreve Abraham, porque fazer isso nesses locais, junto com suas famílias, era “mais fácil” do que rastreá-los até postos militares. E, cada vez mais, para evitar o desperdício de bombas inteligentes para atingir as residências de supostos agentes subalternos, as Forças de Defesa de Israel optaram por usar bombas burras muito menos precisas.

Isso não é exatamente a magia sombria da I.A. da ficção científica. É mais como um fenômeno do Mágico de Oz: O que a princípio parece ser um espetáculo de outro mundo acaba sendo um homem atrás de uma cortina, mexendo nos interruptores. De fato, em sua resposta ao novo relatório, as Forças de Defesa de Israel disseram que “não usam um sistema de inteligência artificial para identificar agentes terroristas”, escrevendo que “os sistemas de informação são meramente ferramentas para analistas no processo de identificação de alvos”.

As Forças de Defesa de Israel já haviam se gabado do uso de IA para atacar o Hamas e, de acordo com o jornal israelense Haaretz, estabeleceram amplas “zonas de morte” em Gaza, onde qualquer pessoa que passasse por elas seria considerada terrorista e alvejada. (Na CNN, o analista Barak Ravid contou a Anderson Cooper sobre uma conversa que teve com um oficial da reserva israelense que lhe disse que “as ordens são basicamente - dos comandantes em campo - atirar em todos os homens em idade de lutar”, uma descrição que corresponde aos comentários feitos na semana passada pelo ex-diretor da C.I.A. e secretário de defesa Leon Panetta, que disse: “Pela minha experiência, os israelenses geralmente atiram e depois fazem perguntas”).

Tanques israelenses participam de treinamento na fronteira entre Israel e a Faixa de Gaza  Foto: Tsafrir Abayov/AP

Para onde vão as coisas a partir de agora? A pergunta não se aplica apenas à conduta de Israel em Gaza ou à escalada dos drones na Ucrânia, onde combates sem piloto já moldaram o curso da guerra, onde a Rússia implementou ferramentas de guerra eletrônica para bloquear os drones ucranianos e onde, de acordo com uma análise da War on the Rocks, a Rússia está “tentando fazer progressos para automatizar toda a cadeia de destruição”.

Em um ensaio de fevereiro, “The Perilous Coming Age of A.I. Warfare”, Paul Scharre, do Center for a New American Security, esboça uma série de possíveis futuros de curto prazo, desde enxames autônomos que entram em batalha uns com os outros de forma tão independente quanto os bots de negociação de alta frequência até a possibilidade de que a I.A. possa receber autoridade sobre os arsenais nucleares existentes.

Ele também apresenta um plano proativo e possivelmente otimista de cinco pontos: que os governos concordem com a supervisão humana da I.A. militar, que proíbam as armas autônomas que têm como alvo as pessoas, que desenvolvam um protocolo de práticas recomendadas para evitar acidentes, que as nações restrinjam o controle sobre as armas nucleares aos seres humanos e que os países adotem um guia convencional para a conduta dos drones. “Sem limites, a humanidade corre o risco de se precipitar em direção a um futuro de guerra perigosa e movida por máquinas”, escreve Scharre, e a janela para agir está “se fechando rapidamente”.

Um civil palestino faz um pão tradicional em uma tenda em Rafah, local que abriga mais de 1 milhão de civis palestinos que foram deslocados  Foto: Haitham Imad/EFE

Nem todos concordam que estamos nos aproximando do equivalente a uma singularidade militar, após a qual a guerra se tornará irreconhecível, em vez de uma evolução mais lenta, com mais mudanças abaixo da superfície. “As revoluções militares costumam ser menos radicais do que inicialmente presumido por seus defensores”, escreve o acadêmico militar Anthony King para o site War on the Rocks. E, embora ele acredite que não estejamos tão perto do fim da supervisão humana e considere “muito improvável” que nos encontremos em um mundo de guerra verdadeiramente autônoma tão cedo, ele também acredita que “os dados e a I.A. são uma - talvez até mesmo a - função de inteligência essencial para a guerra contemporânea”.

De fato, “qualquer força militar que queira prevalecer nos campos de batalha do futuro precisará aproveitar o potencial do big data - ela terá que dominar as informações digitalizadas que inundam o espaço de batalha”, escreve ele. “Os seres humanos simplesmente não têm a capacidade de fazer isso.” Presumivelmente, a I.A. o fará.

Em novembro, os veículos israelenses de esquerda +972 magazine e Local Call publicaram uma investigação perturbadora do jornalista Yuval Abraham sobre o uso pelas Forças de Defesa de Israel de um sistema de inteligência artificial para identificar alvos em Gaza - que um ex-funcionário da inteligência descreveu como uma “fábrica de assassinatos em massa”.

No final de um ano marcado por visões de um apocalipse de I.A. - visões que, às vezes, incluíam sistemas de armas autônomas que se tornavam desonestos - era de se esperar uma reação alarmada. Em vez disso, a notícia de que uma guerra estava sendo conduzida em parte pela I.A. causou apenas uma pequena agitação nos debates sobre a conduta de Israel em Gaza.

Talvez isso tenha acontecido em parte porque - de modo enervante - os especialistas aceitam que as formas de I.A. já estão sendo amplamente utilizadas pelas principais Forças Armadas do mundo, inclusive nos Estados Unidos, onde o Pentágono vem desenvolvendo I.A. para fins militares pelo menos desde o governo Obama. De acordo com a revista americana Foreign Affairs, pelo menos 30 países operam atualmente sistemas de defesa que possuem modos autônomos. Muitos de nós ainda consideram as guerras de inteligência artificial como visões de um futuro de ficção científica, mas a I.A. já está inserida nas operações militares globais com a mesma certeza com que está inserida no tecido de nossa vida cotidiana.

Tanques do Exército de Israel vigiam a fronteira entre Israel e a Faixa de Gaza  Foto: Jack Guez/AFP

Não é apenas a I.A. fora de controle que representa uma ameaça. Sistemas sem controle também podem causar danos. O The Washington Post chamou a guerra na Ucrânia de “super laboratório de invenções”, marcando uma “revolução na guerra de drones usando I.A.”. O Pentágono está desenvolvendo uma resposta aos enxames de drones movidos a IA, uma ameaça que se tornou menos distante ao combater os ataques de drones dos Houthis do Iêmen no Mar Vermelho.

De acordo com a The Associated Press, alguns analistas sugeriram que é apenas uma questão de tempo até que “os drones sejam usados para identificar, selecionar e atacar alvos sem a ajuda de humanos”. Esses enxames, dirigidos por sistemas que operam rápido demais para a supervisão humana, “estão prestes a mudar o equilíbrio do poder militar”, previram Elliot Ackerman e o almirante James Stavridis, ex-comandante aliado da OTAN, no The Wall Street Journal no mês passado. Outros sugeriram que esse futuro já chegou.

Assim como a invasão da Ucrânia, a feroz ofensiva em Gaza às vezes parece um retrocesso, em alguns aspectos mais parecida com uma guerra total do século XX do que com as contrainsurgências e campanhas inteligentes às quais os americanos estão mais acostumados. Em dezembro, quase 70% das casas de Gaza e mais da metade de seus edifícios haviam sido danificados ou destruídos. Atualmente, menos de um terço dos hospitais continuam funcionando e 1,1 milhão de habitantes de Gaza estão enfrentando uma insegurança alimentar “catastrófica”, de acordo com as Nações Unidas. Pode parecer um conflito antiquado, mas a ofensiva das Forças de Defesa de Israel também é um indício ameaçador do futuro militar - tanto em termos de execução quanto de vigilância por meio de tecnologias que surgiram apenas desde o início da guerra contra o terrorismo.

Na semana passada, a +972 e a Local Call publicaram uma investigação de acompanhamento feita por Abraham, que vale muito a pena ler na íntegra. (O Guardian também publicou um artigo com base na mesma reportagem, sob o título “The Machine Did It Coldly”. A reportagem foi levada ao conhecimento de John Kirby, porta-voz de segurança nacional dos EUA, e discutida por Aida Touma-Sliman, membro árabe israelense do Knesset, e pelo secretário-geral das Nações Unidas, António Guterres, que disse estar “profundamente perturbado” com ela).

Palestinos deslocados começam a retornar para Khan Yunis após a saída das tropas israelenses da cidade que fica no sul da Faixa de Gaza  Foto: Haitham Imad/EFE

O relatório de novembro descreve um sistema chamado Habsora (o Evangelho), que, de acordo com os atuais e ex-oficiais da inteligência israelense entrevistados por Abraham, identifica “prédios e estruturas de onde o exército afirma que os militantes operam”. A nova investigação, que foi contestada pelas Forças de Defesa de Israel, documenta outro sistema, conhecido como Lavender, usado para compilar uma “lista de morte” de combatentes suspeitos. O sistema Lavender, escreve ele, “desempenhou um papel central no bombardeio sem precedentes de palestinos, especialmente durante os estágios iniciais da guerra”.

Segundo Abraham, a destruição de Gaza - a morte de mais de 30.000 palestinos, a maioria civis, incluindo mais de 13.000 crianças - oferece uma visão da guerra conduzida pela IA. “De acordo com as fontes”, escreve ele, “sua influência sobre as operações militares era tal que eles basicamente tratavam os resultados da máquina de IA ‘como se fosse uma decisão humana’”, embora o algoritmo tivesse uma taxa de erro reconhecida de 10%. Uma fonte disse a Abraham que os humanos normalmente revisavam cada recomendação por apenas 20 segundos - “só para ter certeza de que o alvo marcado era do sexo masculino” - antes de carimbar e autorizar à recomendação.

As questões mais abstratas levantadas pela perspectiva de uma guerra com I.A. são inquietantes, não apenas no que se refere ao erro da máquina, mas também à responsabilidade final: Quem é responsável por um ataque ou uma campanha conduzida com pouca ou nenhuma participação ou supervisão humana? Mas, embora um dos pesadelos da I.A. militar seja o controle da tomada de decisões, outro é que ela ajuda os exércitos a se tornarem simplesmente mais eficientes nas decisões que já estão sendo tomadas.

E, como Abraham descreve, o sistema Lavender não está causando estragos em Gaza por conta de seus próprios erros de decisão. Em vez disso, ele está sendo usado para pesar o valor militar provável em relação aos danos colaterais de maneiras muito específicas - menos como um oráculo de julgamento militar ou um buraco negro de responsabilidade moral e mais como o projeto revelado dos objetivos de guerra das Forças de Defesa de Israel.

Em um determinado momento de outubro, relata Abraham, as Forças de Defesa de Israel visaram combatentes juniores identificados pelo sistema Lavender somente se o provável dano colateral pudesse ser limitado a 15 ou 20 mortes de civis - um número grande, já que nenhum dano colateral havia sido considerado aceitável para combatentes de baixo escalão.

Os comandantes mais graduados, segundo Abraham, seriam alvos mesmo que isso significasse matar mais de 100 civis. Um segundo programa, chamado Where’s Daddy? (Onde está o papai?), foi usado para rastrear os combatentes até suas casas antes de atingi-los, escreve Abraham, porque fazer isso nesses locais, junto com suas famílias, era “mais fácil” do que rastreá-los até postos militares. E, cada vez mais, para evitar o desperdício de bombas inteligentes para atingir as residências de supostos agentes subalternos, as Forças de Defesa de Israel optaram por usar bombas burras muito menos precisas.

Isso não é exatamente a magia sombria da I.A. da ficção científica. É mais como um fenômeno do Mágico de Oz: O que a princípio parece ser um espetáculo de outro mundo acaba sendo um homem atrás de uma cortina, mexendo nos interruptores. De fato, em sua resposta ao novo relatório, as Forças de Defesa de Israel disseram que “não usam um sistema de inteligência artificial para identificar agentes terroristas”, escrevendo que “os sistemas de informação são meramente ferramentas para analistas no processo de identificação de alvos”.

As Forças de Defesa de Israel já haviam se gabado do uso de IA para atacar o Hamas e, de acordo com o jornal israelense Haaretz, estabeleceram amplas “zonas de morte” em Gaza, onde qualquer pessoa que passasse por elas seria considerada terrorista e alvejada. (Na CNN, o analista Barak Ravid contou a Anderson Cooper sobre uma conversa que teve com um oficial da reserva israelense que lhe disse que “as ordens são basicamente - dos comandantes em campo - atirar em todos os homens em idade de lutar”, uma descrição que corresponde aos comentários feitos na semana passada pelo ex-diretor da C.I.A. e secretário de defesa Leon Panetta, que disse: “Pela minha experiência, os israelenses geralmente atiram e depois fazem perguntas”).

Tanques israelenses participam de treinamento na fronteira entre Israel e a Faixa de Gaza  Foto: Tsafrir Abayov/AP

Para onde vão as coisas a partir de agora? A pergunta não se aplica apenas à conduta de Israel em Gaza ou à escalada dos drones na Ucrânia, onde combates sem piloto já moldaram o curso da guerra, onde a Rússia implementou ferramentas de guerra eletrônica para bloquear os drones ucranianos e onde, de acordo com uma análise da War on the Rocks, a Rússia está “tentando fazer progressos para automatizar toda a cadeia de destruição”.

Em um ensaio de fevereiro, “The Perilous Coming Age of A.I. Warfare”, Paul Scharre, do Center for a New American Security, esboça uma série de possíveis futuros de curto prazo, desde enxames autônomos que entram em batalha uns com os outros de forma tão independente quanto os bots de negociação de alta frequência até a possibilidade de que a I.A. possa receber autoridade sobre os arsenais nucleares existentes.

Ele também apresenta um plano proativo e possivelmente otimista de cinco pontos: que os governos concordem com a supervisão humana da I.A. militar, que proíbam as armas autônomas que têm como alvo as pessoas, que desenvolvam um protocolo de práticas recomendadas para evitar acidentes, que as nações restrinjam o controle sobre as armas nucleares aos seres humanos e que os países adotem um guia convencional para a conduta dos drones. “Sem limites, a humanidade corre o risco de se precipitar em direção a um futuro de guerra perigosa e movida por máquinas”, escreve Scharre, e a janela para agir está “se fechando rapidamente”.

Um civil palestino faz um pão tradicional em uma tenda em Rafah, local que abriga mais de 1 milhão de civis palestinos que foram deslocados  Foto: Haitham Imad/EFE

Nem todos concordam que estamos nos aproximando do equivalente a uma singularidade militar, após a qual a guerra se tornará irreconhecível, em vez de uma evolução mais lenta, com mais mudanças abaixo da superfície. “As revoluções militares costumam ser menos radicais do que inicialmente presumido por seus defensores”, escreve o acadêmico militar Anthony King para o site War on the Rocks. E, embora ele acredite que não estejamos tão perto do fim da supervisão humana e considere “muito improvável” que nos encontremos em um mundo de guerra verdadeiramente autônoma tão cedo, ele também acredita que “os dados e a I.A. são uma - talvez até mesmo a - função de inteligência essencial para a guerra contemporânea”.

De fato, “qualquer força militar que queira prevalecer nos campos de batalha do futuro precisará aproveitar o potencial do big data - ela terá que dominar as informações digitalizadas que inundam o espaço de batalha”, escreve ele. “Os seres humanos simplesmente não têm a capacidade de fazer isso.” Presumivelmente, a I.A. o fará.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.