Ao mesmo tempo em que possibilitam avanços em muitas áreas e criam um ambiente de maior praticidade ao usuário, os chatbots de inteligência artificial (IA), como o ChatGPT, também trazem riscos. O mais recente deles é um robô movido por IA que recebeu o apelido de “FraudeGPT”, pois foi desenhado para auxiliar criminosos na prática de golpes.
A tecnologia foi descoberta pela Netenrich, empresa indiana focada em segurança no meio digital, e vem sendo vendida em canais do Telegram e em locais da dark web desde 22 de julho.
O FraudeGPT é uma ferramenta de inteligência artificial maliciosa, criada exclusivamente para fins ilícitos. Uma de suas atribuições é a criação de e-mails de phishing, prática que consiste no envio de correspondência eletrônica falsa por criminosos para roubar dados da vítima, como nome, senha e número de cartão de crédito.
O uso do FraudeGPT para esse tipo de golpe torna ainda mais difícil identificar o uso malicioso de e-mails, já que a inteligência artificial consegue tornar a mensagem muito próxima daquela enviada pela empresa original.
Além disso, o sistema também consegue criar ferramentas de cracking e carding — técnicas utilizadas para violar softwares de computadores e fraudar cartões de crédito, respectivamente. O chatbot também dá sugestões de sites e instituições que são mais suscetíveis à aplicação de golpes.
Segundo a Netenrich, a assinatura mais barata do FraudeGPT, que é vendido de maneira ilegal, custa US$ 200 por mês (cerca de R$ 947,00), mas pode chegar a até US$ 1,7 mil anuais (cerca de R$ 8.050).
Os comentários são exclusivos para assinantes do Estadão.