Débutant·2 min·23 avril 2026

Les hackers nord-coréens médiocres volent des millions avec l'IA

Des cybercriminels sans compétences utilisent ChatGPT et Cursor pour voler 12 millions de dollars en crypto en trois mois.

Pourquoi ça compte pour toi

L'IA démocratise le crime informatique. Des groupes inexpérimentés peuvent désormais mener des campagnes de phishing et de vol de credentials sans savoir coder vraiment. Pour toi : comprendre comment ces attaques fonctionnent te protège, et c'est un signal que les outils IA grand public deviennent des armes géopolitiques.

Ce qu'il faut retenir

  • 1.Un groupe nord-coréen appelé HexagonalRodent a généré tout son malware avec ChatGPT, Cursor et Anima : phishing, websites fake, code d'exploitation.
  • 2.Ils ont ciblé 2000+ développeurs crypto via de fausses offres d'emploi, avec sites web faits à l'IA. Les victimes téléchargeaient du malware caché dans des tests de codage.
  • 3.Le code contient des emojis et des commentaires en anglais (typique des LLM), détectable mais ignoré par les petites équipes sans outils de sécurité poussés.
  • 4.North Korea crée une structure dédiée (Research Center 227) pour l'IA offensif, et recrute massif : plus d'opérateurs mal formés qui deviennent productifs grâce aux LLM.

## Pourquoi ça marche

Le truc qui crève les yeux : ces hackers n'ont pas les compétences pour écrire du code ou configurer de l'infra. L'IA les rend soudain productifs. Ils créent des sites web de fausses entreprises, rédigent du malware fonctionnel, polissent leurs emails de phishing—tout automatisé.

Le piège ? Les développeurs crypto isolés (freelances, petits projets Web3) n'ont souvent pas d'EDR (endpoint detection and response) installé. Donc le malware basique généré par ChatGPT passe inaperçu. Marcus Hutchins, le chercheur qui a démantelé WannaCry, appelle ça « une niche où tu peux t'en sortir avec du malware 100% IA ».

## Les indices du copilote

Les chercheurs ont repéré que le code était full d'emojis et de commentaires anglais bien structurés—des signatures typiques des LLM. Aucun programmeur nord-coréen ne glisserait des emojis naturellement. Hutchins a analysé les prompts leakés (les hackers ont laissé traîner leurs accès) : c'est clairement du ChatGPT brut.

## Le vrai problème : l'effet multiplicateur

On pensait que l'IA automatiserait et réduirait le nombre d'attaquants. L'inverse se produit. North Korea recrute centaines d'IT workers à peine formés, les envoie au-delà des frontières, et chacun peut maintenant exécuter des opérations de hacking viables en utilisant OpenAI gratuitement. Hutchins a compté 31 hackers dans HexagonalRodent seul.

Le régime crée même un Research Center 227 dédié à l'IA offensive, comme si Pyongyang avait compris avant tout le monde que l'IA = asymétrique warfare. Deepfakes pour les vidéos d'interviews, LLM pour les faux CVs, exploitation assistée—le lot complet.

## Ce qui change concrètement

Si tu gères une startup crypto ou un projet Web3, tu es sur leur radar. Les vrais dégâts : 12 millions volés en trois mois par un groupe qui, il y a deux ans, aurait échoué à exécuter ne serait-ce qu'une attaque cohérente. Et c'est juste un groupe. Les chercheurs estiment que North Korea déploie ça partout.

Source

Newsletter quotidienne

3 minutes d'IA dans ta boîte mail, chaque matin.

Rejoins les francophones qui comprennent, essaient et progressent avec l'IA. Un email court, utile, sans spam. Désabonnement en 1 clic.