Security

Extensions IA malveillantes : vol des chats LLM

3 min de lecture

Résumé

Microsoft Defender révèle que des extensions Chromium se faisant passer pour des assistants IA légitimes peuvent aspirer en continu des données sensibles, notamment des URL internes, des prompts et réponses de ChatGPT ou DeepSeek, puis les exfiltrer discrètement via HTTPS. Cette menace est importante car elle transforme une extension « de confiance » en vecteur de fuite de données d’entreprise, sans comportement de malware classique, ce qui complique fortement la détection et la protection des environnements professionnels.

Besoin d'aide avec Security ?Parler à un expert

Introduction : pourquoi c’est important

Les extensions de navigateur d’assistant IA deviennent des modules « productivité » courants pour les travailleurs du savoir, notamment pour accéder rapidement à des outils comme ChatGPT et DeepSeek. L’enquête de Microsoft Defender montre comment cette commodité peut devenir un canal de perte de données en entreprise : une extension d’apparence légitime installée depuis une place de marché de confiance peut collecter et exfiltrer en continu des prompts, des réponses et des URL internes sensibles, sans se comporter comme un malware traditionnel.

Quoi de neuf / principaux constats

Microsoft Defender a enquêté sur des extensions Chromium malveillantes qui :

  • Usurpent l’identité d’extensions d’assistant IA légitimes en utilisant une image de marque familière et des invites d’autorisations (Defender note l’imitation d’outils connus comme AITOPIA).
  • Collectent le contenu des chats LLM et la télémétrie de navigation, notamment :
    • Les URLs complètes visitées (y compris des sites internes)
    • Des extraits de chat (prompts et réponses) depuis des plateformes telles que ChatGPT et DeepSeek
    • Des identifiants de modèle, le contexte de navigation et un UUID persistant
  • Persistant comme des extensions normales (rechargement automatique au démarrage du navigateur, stockage de la télémétrie dans le stockage local de l’extension).
  • Exfiltrent périodiquement les données via HTTPS POST, ce qui peut ressembler à du trafic web habituel.

Les rapports Defender indiquent que ces extensions ont atteint ~900 000 installations, et la télémétrie Defender confirme une activité sur plus de 20 000 tenants d’entreprise.

Fonctionnement de l’attaque (vue d’ensemble)

  • Distribution : publiées sur le Chrome Web Store avec des descriptions à thème IA. Comme Microsoft Edge prend en charge les extensions du Chrome Web Store, la même fiche permet une portée multi-navigateurs.
  • Exploitation de la confiance et des autorisations : des autorisations d’extension Chromium très larges ont permis d’observer le contenu des pages et l’activité de navigation. Un mécanisme de consentement trompeur a été utilisé, et des mises à jour pouvaient réactiver la télémétrie par défaut même après que les utilisateurs s’étaient désinscrits.
  • Commande et contrôle : envois périodiques vers des domaines contrôlés par l’attaquant tels que deepaichats[.]com et chatsaigpt[.]com, avec purge des tampons locaux après transmission afin de réduire les traces.

Impact sur les administrateurs IT et les utilisateurs finaux

  • Risque de fuite de données : les prompts incluent souvent du code propriétaire, des processus internes, des discussions stratégiques, des identifiants copiés dans des chats et d’autres contenus confidentiels. L’exfiltration d’URLs complètes peut révéler la structure d’applications internes et des chaînes de requête sensibles.
  • Exposition conformité et confidentialité : l’historique de chat capturé peut contenir des données réglementées ou personnelles, compliquant les obligations de conservation, d’eDiscovery et de résidence des données.
  • Le risque lié aux extensions devient « permanent » : contrairement à un événement de phishing ponctuel, une extension malveillante peut offrir une visibilité continue sur l’activité des utilisateurs au fil des sessions.

Actions recommandées / prochaines étapes

  1. Traquer et bloquer les points de terminaison d’exfiltration connus en surveillant le trafic sortant HTTPS POST et en appliquant des contrôles réseau pour :
    • *.chatsaigpt.com
    • *.deepaichats.com
    • *.chataigpt.pro
    • *.chatgptsidebar.pro
  2. Inventorier et auditer les extensions de navigateur sur les endpoints gérés, en ciblant les outils IA/barre latérale disposant d’autorisations étendues sur les sites.
  3. Renforcer la gouvernance des extensions :
    • Utiliser une allowlist des extensions approuvées
    • Restreindre les sources d’installation lorsque c’est possible
    • Examiner les comportements de mise à jour et la dérive des autorisations
  4. Utiliser Microsoft Defender Vulnerability Management pour exécuter Browser extensions assessment, identifier les extensions risquées et prioriser la remédiation.
  5. Sensibiliser les utilisateurs : considérer les chats IA comme des communications sensibles — éviter d’y coller des secrets, des tokens ou du contenu propriétaire, sauf si l’outil et le chemin d’accès sont explicitement approuvés.

Besoin d'aide avec Security ?

Nos experts peuvent vous aider à implémenter et optimiser vos solutions Microsoft.

Parler à un expert

Restez informé sur les technologies Microsoft

Microsoft Defenderbrowser extensionsdata exfiltrationAI securityChromium

Articles connexes

Security

Compromission supply chain Trivy : guide Defender

Microsoft a publié des recommandations de détection, d’investigation et d’atténuation concernant la compromission de la supply chain Trivy de mars 2026, qui a affecté le binaire Trivy et des GitHub Actions associées. Cet incident est important, car il a détourné un outil de sécurité CI/CD de confiance pour voler des identifiants à partir de pipelines de build, d’environnements cloud et de systèmes de développeurs tout en semblant s’exécuter normalement.

Security

Gouvernance des agents IA : aligner l’intention

Microsoft présente un modèle de gouvernance pour les agents IA qui aligne l’intention de l’utilisateur, du développeur, du rôle et de l’organisation. Ce cadre aide les entreprises à garder des agents utiles, sécurisés et conformes en définissant des limites de comportement et un ordre de priorité clair en cas de conflit.

Security

Microsoft Defender : predictive shielding stoppe le ransomware GPO

Microsoft a détaillé un cas réel de ransomware dans lequel le predictive shielding de Defender a détecté un abus malveillant de Group Policy Object avant le début du chiffrement. En renforçant la propagation des GPO et en perturbant les comptes compromis, Defender a bloqué environ 97 % des tentatives de chiffrement et empêché tout appareil d’être chiffré via le chemin de diffusion GPO.

Security

Sécurité agentic AI : Microsoft renforce sa protection

Microsoft a présenté à la RSAC 2026 une stratégie complète pour sécuriser l’agentic AI en entreprise, avec le lancement en disponibilité générale d’Agent 365 le 1er mai et de nouveaux outils de visibilité comme Security Dashboard for AI. Ces annonces comptent car elles visent à aider les équipes IT et sécurité à mieux gouverner les agents AI, limiter les risques de surpartage de données et détecter plus tôt les menaces émergentes liées à l’IA.

Security

CTI-REALM open source : benchmark IA cybersécurité

Microsoft a dévoilé CTI-REALM, un benchmark open source qui évalue si des agents IA peuvent réellement produire des détections de sécurité de bout en bout à partir de rapports de cyber threat intelligence, plutôt que simplement répondre à des questions théoriques. C’est important pour les équipes SOC, car cet outil mesure des résultats opérationnels concrets — sur Linux, AKS et Azure — et aide à comparer la capacité réelle des modèles à soutenir l’ingénierie de détection.

Security

Zero Trust for AI de Microsoft : atelier et architecture

Microsoft a enrichi sa documentation Zero Trust avec une approche dédiée à l’IA, appliquant les principes « verify explicitly », « least privilege » et « assume breach » aux modèles, agents, prompts et sources de données. Cette évolution compte parce qu’elle fournit aux équipes IT et sécurité un cadre concret, renforcé par un nouveau pilier IA dans le Zero Trust Workshop, pour évaluer les risques propres à l’IA et déployer des contrôles adaptés à grande échelle.