‘FraudeGPT’: conheça a ‘versão do mal’ do ChatGPT, que é usada por criminosos e golpistas

Chatbot movido a inteligência artificial acende alerta contra golpes na internet

PUBLICIDADE

Por João Coelho

Ao mesmo tempo em que possibilitam avanços em muitas áreas e criam um ambiente de maior praticidade ao usuário, os chatbots de inteligência artificial (IA), como o ChatGPT, também trazem riscos. O mais recente deles é um robô movido por IA que recebeu o apelido de “FraudeGPT”, pois foi desenhado para auxiliar criminosos na prática de golpes.

PUBLICIDADE

A tecnologia foi descoberta pela Netenrich, empresa indiana focada em segurança no meio digital, e vem sendo vendida em canais do Telegram e em locais da dark web desde 22 de julho.

O FraudeGPT é uma ferramenta de inteligência artificial maliciosa, criada exclusivamente para fins ilícitos. Uma de suas atribuições é a criação de e-mails de phishing, prática que consiste no envio de correspondência eletrônica falsa por criminosos para roubar dados da vítima, como nome, senha e número de cartão de crédito.

Fraude no cartão de crédito é um dos crimes facilitados pelo Fraud GPT Foto: Foto: Shutterstock/Reprodução

O uso do FraudeGPT para esse tipo de golpe torna ainda mais difícil identificar o uso malicioso de e-mails, já que a inteligência artificial consegue tornar a mensagem muito próxima daquela enviada pela empresa original.

Publicidade

Além disso, o sistema também consegue criar ferramentas de cracking e carding — técnicas utilizadas para violar softwares de computadores e fraudar cartões de crédito, respectivamente. O chatbot também dá sugestões de sites e instituições que são mais suscetíveis à aplicação de golpes.

Segundo a Netenrich, a assinatura mais barata do FraudeGPT, que é vendido de maneira ilegal, custa US$ 200 por mês (cerca de R$ 947,00), mas pode chegar a até US$ 1,7 mil anuais (cerca de R$ 8.050).

Comentários

Os comentários são exclusivos para assinantes do Estadão.