Security

Next.js malveillant : vols d’environnement via VS Code

3 min de lecture

Résumé

Microsoft alerte sur une campagne utilisant de faux dépôts Next.js, parfois déguisés en exercices de recrutement, pour voler des variables d’environnement et exécuter du code malveillant sur les postes de développeurs. L’attaque peut se déclencher automatiquement à l’ouverture du dossier dans VS Code ou lors du lancement du projet, ce qui la rend particulièrement dangereuse car elle s’insère dans des workflows de développement ordinaires et vise des secrets critiques comme les tokens API et identifiants cloud.

Besoin d'aide avec Security ?Parler à un expert

Introduction: pourquoi c’est important

Les postes de travail des développeurs et les environnements de build sont des cibles à forte valeur, car ils contiennent souvent du code source, du matériel de signature et des secrets (tokens d’API, identifiants cloud) dans des variables d’environnement. Microsoft Defender Experts signale une campagne qui sème des dépôts Next.js malveillants—souvent présentés comme des « devoirs à emporter » liés à un recrutement—conçus pour se fondre dans des workflows de développement normaux et déclencher de manière fiable l’exécution de code.

Quoi de neuf / principaux constats

Microsoft a observé plusieurs dépôts liés partageant des conventions de nommage et réutilisant une logique de loader. Si l’appât initial varie, l’état final reste constant : récupération à l’exécution et exécution en mémoire de JavaScript contrôlé par l’attaquant, suivies d’un C2 par étapes.

1) Exécution de l’espace de travail VS Code à l’ouverture du dossier

Certains dépôts incluent un fichier .vscode/tasks.json configuré avec runOn: "folderOpen". Si un développeur ouvre (et approuve) le projet, une tâche s’exécute automatiquement et lance un script Node qui récupère un loader JavaScript (observé hébergé par étapes sur Vercel) et l’exécute.

2) Exécution à la phase de build lors du lancement de l’app

D’autres variantes se déclenchent lorsqu’un développeur démarre le projet (par exemple, npm run dev). Ces dépôts intègrent une logique malveillante dans des assets en apparence normaux (p. ex., un jquery.min.js trojanisé). L’asset décode une URL en base64, récupère le loader (là encore, fréquemment depuis Vercel) et l’exécute en mémoire.

3) Exécution au démarrage du backend avec exfiltration d’env + RCE dynamique

Un troisième scénario s’active lors de l’initialisation du serveur / de l’import de module. Les dépôts peuvent contenir une valeur .env comme AUTH_API=<base64>. Au démarrage, le code backend décode l’endpoint, publie process.env vers l’attaquant, puis exécute le JavaScript renvoyé via compilation dynamique (p. ex., new Function("require", response.data)(require)). Cela peut divulguer des configurations sensibles et permet une livraison de payloads de suivi pilotée par l’opérateur.

Enregistrement Stage 1 → command-and-control par étapes

Sur l’ensemble des voies, l’exécution converge vers une étape initiale de « registrar » qui dresse le profil de l’hôte et interroge un endpoint d’enregistrement, recevant un instanceId pour corréler l’activité ultérieure. La télémétrie a également relevé des rappels persistants vers une infrastructure contrôlée par l’attaquant (dont du trafic HTTP sur le port 300) après la mise en place initiale.

Impact pour les administrateurs IT et les équipes de sécurité

  • Risque accru sur les endpoints développeurs : l’ouverture d’un dépôt peut suffire à exécuter du code si les tâches d’espace de travail sont approuvées.
  • Exposition d’identifiants : le chemin de démarrage backend peut exfiltrer des variables d’environnement (clés cloud, identifiants de base de données, tokens CI).
  • Détection plus difficile : l’exécution en mémoire et les loaders par étapes peuvent réduire les artefacts évidents sur disque.

Actions / prochaines étapes

  • Sensibilisation des développeurs : traiter les évaluations techniques et les dépôts inconnus comme non fiables ; éviter de cliquer sur « Trust » dans VS Code avant revue.
  • Inspection des dépôts : signaler/inspecter .vscode/tasks.json (en particulier runOn: "folderOpen"), les scripts Node inattendus sous .vscode/, et les bibliothèques minifiées qui ne correspondent pas à des hashes de référence.
  • Hygiène des secrets : réduire la dépendance aux secrets longue durée dans .env ; utiliser des managed identities / des tokens à courte durée de vie lorsque possible et faire tourner tout identifiant exposé.
  • Détection & contrôles : surveiller les processus Node.js pour des connexions sortantes inhabituelles (p. ex., des outils dev contactant des domaines de staging suivis d’un C2 inconnu), et envisager des restrictions d’egress depuis les appareils développeurs et les agents de build.
  • Hunting : rechercher dans les plateformes d’hébergement de code et les miroirs internes des « familles » de nommage et des schémas de réutilisation structurelle décrits par Microsoft (dépôts quasi dupliqués, loaders similaires, endpoints de staging répétés).

Besoin d'aide avec Security ?

Nos experts peuvent vous aider à implémenter et optimiser vos solutions Microsoft.

Parler à un expert

Restez informé sur les technologies Microsoft

Microsoft DefenderNext.jssupply chain securityVisual Studio CodeNode.js

Articles connexes

Security

Compromission supply chain Trivy : guide Defender

Microsoft a publié des recommandations de détection, d’investigation et d’atténuation concernant la compromission de la supply chain Trivy de mars 2026, qui a affecté le binaire Trivy et des GitHub Actions associées. Cet incident est important, car il a détourné un outil de sécurité CI/CD de confiance pour voler des identifiants à partir de pipelines de build, d’environnements cloud et de systèmes de développeurs tout en semblant s’exécuter normalement.

Security

Gouvernance des agents IA : aligner l’intention

Microsoft présente un modèle de gouvernance pour les agents IA qui aligne l’intention de l’utilisateur, du développeur, du rôle et de l’organisation. Ce cadre aide les entreprises à garder des agents utiles, sécurisés et conformes en définissant des limites de comportement et un ordre de priorité clair en cas de conflit.

Security

Microsoft Defender : predictive shielding stoppe le ransomware GPO

Microsoft a détaillé un cas réel de ransomware dans lequel le predictive shielding de Defender a détecté un abus malveillant de Group Policy Object avant le début du chiffrement. En renforçant la propagation des GPO et en perturbant les comptes compromis, Defender a bloqué environ 97 % des tentatives de chiffrement et empêché tout appareil d’être chiffré via le chemin de diffusion GPO.

Security

Sécurité agentic AI : Microsoft renforce sa protection

Microsoft a présenté à la RSAC 2026 une stratégie complète pour sécuriser l’agentic AI en entreprise, avec le lancement en disponibilité générale d’Agent 365 le 1er mai et de nouveaux outils de visibilité comme Security Dashboard for AI. Ces annonces comptent car elles visent à aider les équipes IT et sécurité à mieux gouverner les agents AI, limiter les risques de surpartage de données et détecter plus tôt les menaces émergentes liées à l’IA.

Security

CTI-REALM open source : benchmark IA cybersécurité

Microsoft a dévoilé CTI-REALM, un benchmark open source qui évalue si des agents IA peuvent réellement produire des détections de sécurité de bout en bout à partir de rapports de cyber threat intelligence, plutôt que simplement répondre à des questions théoriques. C’est important pour les équipes SOC, car cet outil mesure des résultats opérationnels concrets — sur Linux, AKS et Azure — et aide à comparer la capacité réelle des modèles à soutenir l’ingénierie de détection.

Security

Zero Trust for AI de Microsoft : atelier et architecture

Microsoft a enrichi sa documentation Zero Trust avec une approche dédiée à l’IA, appliquant les principes « verify explicitly », « least privilege » et « assume breach » aux modèles, agents, prompts et sources de données. Cette évolution compte parce qu’elle fournit aux équipes IT et sécurité un cadre concret, renforcé par un nouveau pilier IA dans le Zero Trust Workshop, pour évaluer les risques propres à l’IA et déployer des contrôles adaptés à grande échelle.