THE WASHINGTON POST - Os funcionários do Pentágono estavam atentos a cada palavra quando Matthew Knight, chefe de segurança da OpenAI, explicou como a versão mais recente do ChatGPT conseguiu decifrar conversas enigmáticas dentro de um grupo de hackers russos, uma tarefa que os analistas humanos consideraram desafiadora.
“Esses registros estavam em gírias russas da internet”, disse Knight. “Tínhamos um linguista russo em nossa equipe que teve dificuldade para entender. Sabe como é, um falante forte de russo. Mas o GPT-4 foi capaz de entender.”
As promessas e os perigos das tecnologias avançadas de inteligência artificial foram exibidos esta semana em um conclave organizado pelo Pentágono para examinar os usos futuros da inteligência artificial (IA) pelas forças armadas. Autoridades do governo e do setor discutiram como ferramentas como modelos amplos de linguagem, ou LLMs, poderiam ser usadas para ajudar a manter a liderança estratégica do governo dos EUA sobre os rivais - especialmente a China.
Além da OpenAI, a Amazon e a Microsoft estavam entre as empresas que demonstraram suas tecnologias.
Nem todas as questões levantadas foram positivas. Alguns palestrantes pediram cautela na implantação de sistemas que os pesquisadores ainda estão trabalhando para entender completamente.
“Há uma preocupação iminente com possíveis acidentes catastróficos devido ao mau funcionamento da IA e com o risco de danos substanciais causados por ataques adversários direcionados à IA”, disse o tenente-coronel do exército sul-coreano Kangmin Kim no simpósio. “Portanto, é de suma importância que avaliemos meticulosamente os sistemas de armas de IA desde o estágio de desenvolvimento.”
Ele disse aos funcionários do Pentágono que eles precisavam abordar a questão da “responsabilidade em caso de acidentes”.
Craig Martell, chefe do Escritório Chefe de Inteligência Artificial e Digital do Pentágono, ou CDAO, disse a repórteres na quinta-feira que está ciente de tais preocupações.
“Eu diria que estamos trabalhando rápido demais se enviarmos coisas que não sabemos como avaliar”, disse ele. “Não acho que devemos enviar coisas que não sabemos como avaliar”.
Embora os LLMs como o ChatGPT sejam conhecidos pelo público como chatbots, os especialistas do setor dizem que não é provável que os militares os utilizem para conversar. É mais provável que eles sejam usados para concluir tarefas que levariam muito tempo ou seriam muito complicadas se fossem realizadas por seres humanos. Isso significa que, provavelmente, elas seriam usadas por profissionais treinados para controlar computadores potentes.
Leia também
“O bate-papo é um beco sem saída”, disse Shyam Sankar, diretor de tecnologia da Palantir Technologies, uma empresa contratada pelo Pentágono. “Em vez disso, reimaginamos os LLMs e os prompts como sendo para os desenvolvedores, não para os usuários finais. Isso muda a finalidade de seu uso”.
O pano de fundo do simpósio foi a corrida tecnológica dos EUA contra a China, que tem ecos crescentes da Guerra Fria. Os EUA permanecem solidamente na liderança em IA, disseram os pesquisadores, com Washington tendo dificultado o progresso de Pequim por meio de uma série de sanções. Mas as autoridades americanas temem que a China já tenha alcançado proficiência suficiente em IA para aumentar suas capacidades militares e de coleta de informações.
Os líderes do Pentágono relutaram em falar sobre o nível de IA da China quando perguntados várias vezes por membros da plateia nesta semana, mas alguns dos especialistas do setor convidados a falar estavam dispostos a responder à pergunta.
Alexandr Wang, CEO da Scale AI, sediada em São Francisco, que está trabalhando com o Pentágono em IA, disse na quinta-feira que a China estava muito atrás dos EUA em LLMs há apenas alguns anos, mas que havia eliminado grande parte dessa lacuna por meio de bilhões de dólares em investimentos. Ele disse que os EUA parecem preparados para permanecer na liderança, a menos que cometam erros não forçados, como deixar de investir o suficiente em aplicativos de IA ou implantar LLMs nos cenários errados.
“Essa é uma área em que nós, os EUA, devemos vencer”, disse Wang. “Se tentarmos utilizar a tecnologia em cenários em que ela não é adequada para ser usada, vamos cair. Vamos dar um tiro no próprio pé.”
Alguns pesquisadores alertaram contra a tentação de lançar aplicativos emergentes de IA no mundo antes de estarem prontos, apenas por preocupação com o atraso da China.
“O que vemos são preocupações sobre estar ou ficar para trás. Essa é a mesma dinâmica que animou o desenvolvimento de armas nucleares e, posteriormente, da bomba de hidrogênio”, disse Jon Wolfsthal, diretor de riscos globais da Federação de Cientistas Americanos, que não participou do simpósio. “Talvez essa dinâmica seja inevitável, mas não estamos - nem no governo nem na comunidade de desenvolvimento de IA - sensibilizados o suficiente para esses riscos nem os estamos levando em conta nas decisões sobre até que ponto integrar esses novos recursos em alguns de nossos sistemas mais sensíveis.”
Rachel Martin, diretora do programa Maven do Pentágono, que analisa vídeo de vigilância por drones, imagens de satélite de alta resolução e outras informações visuais, disse que os especialistas de seu programa estavam procurando ajuda dos LLMs para filtrar “milhões a bilhões” de unidades de vídeo e foto - “uma escala que, acredito, provavelmente não tem precedentes no setor público”. O programa Maven é administrado pela National Geospatial-Intelligence Agency (Agência Nacional de Inteligência Geoespacial) e pela CDAO.
Martin disse que ainda não está claro se os LLMs comerciais, que foram treinados em dados públicos da internet, seriam os mais adequados para o trabalho do Maven.
“Há uma grande diferença entre fotos de gatos na internet e imagens de satélite”, disse ela. “Não temos certeza de quanto os modelos que foram treinados nesses tipos de imagens da internet serão úteis para nós.”
O interesse foi particularmente grande na apresentação de Knight sobre o ChatGPT. A OpenAI removeu as restrições contra aplicativos militares de sua política de uso no mês passado, e a empresa começou a trabalhar com a Agência de Projetos de Pesquisa Avançada de Defesa do Departamento de Defesa dos EUA, ou DARPA.
Knight disse que os LLMs são adequados para a realização de pesquisas sofisticadas em várias linguagens, identificando vulnerabilidades no código-fonte e realizando buscas que são muito trabalhosas para os seres humanos. “Os modelos de linguagem não se cansam”, disse ele. “Eles podem fazer isso o dia todo.”
Knight também disse que os LLMs podem ser úteis para “ações de desinformação”, gerando sock puppets, ou contas falsas de mídia social, preenchidas com “uma espécie de biografia de uma pessoa em forma de cartão de beisebol”. Ele observou que essa é uma tarefa demorada quando feita por humanos.
“Quando você tem fantoches de meia, pode simulá-los em discussões”, disse Knight, mostrando uma maquete de indivíduos fantasmas de direita e de esquerda em um debate.
O capitão da Marinha dos EUA M. Xavier Lugo, chefe da força-tarefa de IA generativa da CDAO, disse no palco que o Pentágono não usaria o LLM de uma empresa contra sua vontade.
“Se alguém não quiser que seu modelo básico seja utilizado pelo DoD, então não será”, disse Lugo.
O escritório que presidirá o simpósio desta semana, o CDAO, foi formado em junho de 2022, quando o Pentágono fundiu quatro unidades de análise de dados e unidades relacionadas à IA. Margaret Palmieri, vice-chefe do CDAO, disse que a centralização dos recursos de IA em um único escritório reflete o interesse do Pentágono em não apenas experimentar essas tecnologias, mas implantá-las amplamente.
“Estamos olhando para a missão através de uma lente diferente, e essa lente é a escala”, disse ela.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.