Fondamentaux de la sécurité IA : guide CISO
Résumé
Microsoft conseille aux CISO de sécuriser les systèmes d’IA avec les mêmes contrôles de base qu’ils appliquent déjà aux logiciels, aux identités et aux accès aux données. Les recommandations mettent en avant le moindre privilège, les défenses contre l’injection de prompt et l’usage de l’IA elle-même pour détecter les problèmes d’autorisations avant les attaquants ou les utilisateurs.
Introduction
L’adoption de l’IA s’accélère dans les entreprises, mais les dernières recommandations de Microsoft soulignent un point essentiel : l’IA ne doit pas être traitée comme de la magie. Pour les CISO, l’approche la plus efficace consiste à appliquer aux systèmes d’IA des fondamentaux de sécurité éprouvés, tout en tenant compte de nouveaux risques comme l’injection de prompt et la surexposition des données.
Ce que recommande Microsoft
Microsoft présente l’IA à la fois comme un assistant junior et comme un logiciel. Cela signifie que les organisations doivent associer une gouvernance solide à des contrôles de sécurité traditionnels.
Principes clés de sécurité
- Traiter l’IA comme un logiciel : les systèmes d’IA fonctionnent avec des identités, des autorisations et des chemins d’accès comme les autres applications.
- Appliquer le moindre privilège et la moindre autonomie : ne donner à l’IA que les données, les API et les actions nécessaires à son objectif spécifique.
- Ne jamais laisser l’IA prendre des décisions de contrôle d’accès : l’autorisation doit rester déterministe et être appliquée par des contrôles non liés à l’IA.
- Attribuer des identités appropriées : utiliser des identités de service distinctes ou des identités dérivées de l’utilisateur, alignées sur le cas d’usage.
- Tester les entrées malveillantes : surtout lorsque l’IA peut effectuer des actions significatives pour le compte des utilisateurs.
Nouveaux risques spécifiques à l’IA à surveiller
Microsoft identifie les attaques d’injection de prompt indirecte (XPIA) comme une préoccupation majeure. Cela se produit lorsque l’IA confond un contenu non fiable avec des instructions, par exemple du texte caché intégré dans des CV ou des documents.
Pour réduire ce risque, Microsoft recommande :
- D’utiliser des protections comme Spotlighting et Prompt Shield
- De valider soigneusement la manière dont l’IA traite les contenus externes ou non fiables
- De décomposer les tâches en étapes plus petites et explicites pour améliorer la fiabilité et réduire les erreurs
Pourquoi cela compte pour les équipes IT et sécurité
L’un des enseignements les plus importants est que l’IA peut révéler plus rapidement que la recherche traditionnelle ou la revue manuelle des problèmes existants d’hygiène des données et d’autorisations. Comme l’IA facilite la recherche et la synthèse des données accessibles, les utilisateurs peuvent faire remonter des informations auxquelles ils avaient techniquement accès, sans que l’on s’attende à ce qu’ils puissent les découvrir aussi facilement.
Microsoft propose un test simple : utiliser un compte utilisateur standard avec le mode Researcher de Microsoft 365 Copilot et poser des questions sur des sujets confidentiels auxquels cet utilisateur ne devrait pas avoir accès. Si l’IA trouve des informations sensibles, cela peut révéler des lacunes sous-jacentes dans les autorisations qui nécessitent une correction immédiate.
Prochaines étapes recommandées
Les équipes sécurité devraient examiner les déploiements d’IA à la lumière des principes Zero Trust existants et des politiques de gouvernance des données.
- Auditer les autorisations et supprimer les accès surprovisionnés
- Examiner où résident les données sensibles dans l’environnement numérique
- Renforcer les contrôles d’identité et les accès just-in-time
- Bloquer les protocoles et formats hérités qui ne sont plus nécessaires
- Ajouter des tests d’injection de prompt aux évaluations de sécurité de l’IA
- Définir des points d’approbation humaine clairs pour les actions d’IA à fort impact
Conclusion
Le message de Microsoft aux CISO est pragmatique : sécurisez l’IA de la même manière que tout système logiciel puissant, puis ajoutez des contrôles pour les modes de défaillance propres à l’IA. Les organisations qui améliorent l’hygiène des données, resserrent les accès et valident le comportement de l’IA seront mieux positionnées pour adopter l’IA en toute sécurité à grande échelle.
Besoin d'aide avec Security ?
Nos experts peuvent vous aider à implémenter et optimiser vos solutions Microsoft.
Parler à un expertRestez informé sur les technologies Microsoft