THE NEW YORK TIMES - Hackers que trabalham para países como China e Rússia usaram os sistemas da OpenAI para a criação de ataques cibernéticos, de acordo com pesquisa divulgada nesta quarta-feira, 14, pela própria empresa e pela Microsoft. As empresas acreditam que a pesquisa, publicada em seus sites, documenta pela primeira vez como os hackers ligados a governos estrangeiros estão usando inteligência artificial (IA) generativa em seus ataques.
Mas, em vez de usar a IA para gerar ataques exóticos, como temiam alguns membros do setor de tecnologia, os hackers a utilizaram de maneiras mundanas, como redigir e-mails, traduzir documentos e depurar códigos de computador, disseram as empresas.
“Eles estão apenas usando-a como todo mundo, para tentar ser mais produtivos no que estão fazendo”, disse Tom Burt, que supervisiona os esforços da Microsoft para rastrear e interromper grandes ataques cibernéticos. A Microsoft investiu US$ 13 bilhões na OpenAI, colocando as duas empresas como parceiras próximas no mundo dos negócios.
Leia mais
No relatório, as companhais documentam como cinco grupos de hackers com vínculos com a China, Rússia, Coreia do Norte e Irã usaram a tecnologia da OpenAI. As empresas não informaram qual tecnologia foi utilizada. A startup disse que encerrou os acessos após saber sobre o uso.
Desde que a OpenAI lançou o ChatGPT em novembro de 2022, especialistas em tecnologia, a imprensa e as autoridades governamentais têm se preocupado com a possibilidade de os adversários transformarem essas ferramentas poderosas em armas, buscando maneiras novas e criativas de explorar vulnerabilidades. Como em outros aspectos da IA, a realidade pode ser mais subestimada.
“Será que a IA está fornecendo algo novo e inovador que está acelerando um adversário, além do que um mecanismo de busca melhor poderia fazer? Não vi nenhuma evidência disso”, disse Bob Rotsted, que dirige a inteligência de ameaças à segurança cibernética da OpenAI.
Ele disse que a OpenAI limitou o local onde os clientes poderiam se inscrever para criar contas, mas que os culpados sofisticados poderiam evitar a detecção por meio de várias técnicas, como mascarar sua localização.
“Eles se registram como qualquer outra pessoa”, disse Rotsted.
A Microsoft disse que um grupo de hackers ligado ao Corpo de Guardas Revolucionários Islâmicos, no Irã, usou os sistemas de IA para pesquisar maneiras de evitar escâneres antivírus e gerar e-mails de phishing. Os e-mails incluíam “um que fingia vir de uma agência de desenvolvimento internacional e outro que tentava atrair feministas proeminentes para um site sobre feminismo criado por um invasor”, disse a empresa.
Em outro caso, um grupo afiliado à Rússia que está tentando influenciar a guerra na Ucrânia usou os sistemas da OpenAI para realizar pesquisas sobre protocolos de comunicação via satélite e tecnologia de imagem de radar, disse a OpenAI.
A Microsoft rastreia mais de 300 grupos de hackers, incluindo criminosos cibernéticos e Estados-nação, e os sistemas proprietários da OpenAI facilitaram o rastreamento e a interrupção de seu uso, disseram os executivos. Eles disseram que, embora houvesse maneiras de identificar se os hackers estavam usando tecnologia de IA de código aberto, a proliferação de sistemas abertos tornou a tarefa mais difícil.
“Quando o trabalho é de código aberto, nem sempre é possível saber quem está implantando essa tecnologia, como ela está sendo implantada e quais são suas políticas para o uso responsável e seguro da tecnologia”, disse Burt.
A Microsoft não descobriu nenhum uso de IA generativa no ataque de hack russo dos principais executivos da Microsoft que a empresa divulgou no mês passado, disse ele.
Os comentários são exclusivos para assinantes do Estadão.