Um grupo de hackers da Coreia do Norte, conhecido como Kimsuky, utilizou a inteligência artificial do ChatGPT para criar uma versão falsa de um documento de identificação militar sul-coreano. Os IDs falsificados foram anexados a e-mails de phishing que se faziam passar por uma instituição de defesa sul-coreana responsável pela emissão de credenciais para oficiais militares. A campanha foi revelada pela empresa de cibersegurança sul-coreana Genians em um recente post em seu blog.
Embora o ChatGPT possua salvaguardas que bloqueiam tentativas de gerar IDs governamentais, os hackers conseguiram enganar o sistema ao solicitar “modelos de amostra para fins legítimos”. Genians destacou que essa situação ilustra como a IA generativa alterou o cenário dos ataques cibernéticos, permitindo que hackers produzam documentos falsos altamente convincentes em larga escala. A preocupação não se limita a um único documento falso, mas à combinação de ferramentas que podem ser utilizadas para reforçar a fraude.
Especialistas em cibersegurança alertam que essa mudança é alarmante, pois ferramentas de IA facilitam ataques de phishing convincentes e mensagens fraudulentas. A necessidade de reavaliar o treinamento em segurança é urgente, com foco em contexto, intenção e verificação. À medida que as ameaças se tornam mais sofisticadas, tanto empresas quanto indivíduos devem adaptar suas defesas e práticas de segurança para se protegerem contra essas novas táticas.