Como a IA está nivelando o crime cibernético na Coreia do Norte

7

O mundo da cibersegurança está frequentemente preocupado com um cenário de “dia do juízo final”: uma IA avançada e autónoma que pode contornar qualquer firewall como uma superpotência digital. No entanto, uma investigação recente revela uma ameaça muito mais imediata e prática. Em vez de criar “super-hackers”, a IA generativa está a agir como um multiplicador de força para criminosos medíocres e não qualificados, permitindo-lhes executar operações altamente lucrativas e em grande escala.

Um relatório recente da empresa de segurança cibernética Expel descobriu um grupo patrocinado pelo Estado norte-coreano, apelidado de “HexagonalRodent “, que usou ferramentas comerciais de IA para roubar cerca de 12 milhões de dólares em criptomoedas em apenas três meses.

A campanha “Vibe Coding”

A operação da HexagonalRodent não foi definida pelo brilhantismo técnico, mas pelo uso inteligente de ferramentas de IA prontamente disponíveis de empresas como OpenAI, Cursor e Anima. O grupo tinha como alvo um nicho específico: desenvolvedores trabalhando em projetos de pequena escala de Web3, NFT e criptomoeda.

Os hackers utilizaram uma sofisticada tática de engenharia social:
1. Recrutamento falso: Eles usaram ferramentas de web design de IA para criar sites com aparência profissional para empresas de tecnologia fraudulentas.
2. Phishing via “Testes”: Eles atraíam as vítimas com ofertas de emprego falsas, eventualmente pedindo-lhes que completassem uma “tarefa de codificação”.
3. Injeção de malware: Essas atribuições foram infectadas com malware de roubo de credenciais projetado para sequestrar carteiras criptografadas.

“Esses operadores não têm as habilidades necessárias para escrever código… A IA está, na verdade, permitindo que eles façam coisas que de outra forma não seriam capazes de fazer”, diz Marcus Hutchins, o pesquisador de segurança que descobriu o grupo.

Impressões digitais: Emojis e inglês

Apesar do sucesso, os hackers deixaram pistas inequívocas de que seu trabalho foi gerado por IA. Os pesquisadores de segurança notaram vários “sinais” no malware:
Código cheio de emojis: o malware continha o uso frequente de emojis, uma peculiaridade comum dos Large Language Models (LLMs) que os programadores profissionais raramente usam na codificação manual.
Anotações não características: O código foi fortemente anotado com comentários em inglês, o que é atípico para operadores norte-coreanos, mas padrão para resultados gerados por IA.
Padrões padrão: Embora o malware seguisse padrões previsíveis que as ferramentas de segurança modernas deveriam detectar, os hackers escaparam da notificação com sucesso, visando desenvolvedores individuais que não possuíam software de “detecção e resposta de endpoint” (EDR) de nível empresarial.

Um multiplicador de força para um “sindicato do crime”

Esta descoberta destaca uma mudança crítica na forma como a Coreia do Norte conduz a guerra cibernética. O regime enfrenta um desafio estrutural: tem um conjunto enorme de trabalhadores de TI pouco qualificados, mas um número muito limitado de hackers de elite.

A IA resolve esse problema permitindo que o estado escale suas operações sem aumentar sua experiência. Em vez de precisar de uma equipe de desenvolvimento completa, um único operador medíocre pode usar IA para escrever explorações, construir sites e aprimorar scripts de engenharia social. Isto transformou as operações cibernéticas norte-coreanas em algo semelhante a um sindicato do crime sancionado pelo Estado, utilizando fundos roubados para contornar sanções internacionais e financiar interesses nacionais, incluindo programas nucleares.

O ponto cego da indústria

As implicações mais amplas para a indústria da segurança cibernética são significativas. Embora grande parte do debate atual se concentre no risco futuro de “hacking autônomo de IA”, o perigo real está acontecendo agora através do uso indevido de ferramentas comerciais existentes.

Os principais fornecedores de IA já estão reagindo. OpenAI e Anthropic relataram detectar e banir contas norte-coreanas. Cursor e Anima também estão trabalhando para impedir que atores mal-intencionados usem suas plataformas.

No entanto, enquanto estas ferramentas permanecerem acessíveis, continuarão a reduzir a barreira à entrada do crime cibernético. A ameaça não é uma hipotética “Skynet”; é a capacidade de intervenientes não qualificados se moverem com velocidade e escala sem precedentes.


Conclusão: A IA não está necessariamente a criar hackers mais sofisticados, mas está a permitir que os medíocres operem a nível profissional, transformando o cibercrime de baixa qualificação numa indústria de alto rendimento patrocinada pelo Estado.