Security

Threat Modeling für generative KI-Apps anpassen

3 Min. Lesezeit

Zusammenfassung

Microsoft betont, dass klassisches Threat Modeling für generative und agentische KI-Anwendungen nicht mehr ausreicht, weil nichtdeterministische Ausgaben, Prompt-Injection-Risiken und die Anbindung an Tools, APIs und Speicher die Bedrohungslage deutlich verändern. Das ist wichtig, weil Sicherheits-Teams ihre Modelle und Prüfprozesse anpassen müssen, um seltene, aber folgenschwere Fehlverhalten früh zu erkennen und Schäden durch manipulierte oder autonom handelnde KI-Systeme zu begrenzen.

Brauchen Sie Hilfe mit Security?Mit einem Experten sprechen

Introduction: why this matters

Threat Modeling hilft Teams, frühzeitig zu erkennen, was schiefgehen kann – bevor es in der Praxis zu Ausfällen oder adversarial exploits kommt. Microsoft weist darauf hin, dass KI-Anwendungen (insbesondere generative und agentische Systeme) viele Annahmen traditioneller, deterministischer Software aufbrechen. Daher müssen Security-Teams ihren Threat-Modeling-Ansatz anpassen, um probabilistische Outputs, erweiterte Attack Surfaces und menschenzentrierte Schäden zu berücksichtigen.

What’s new: how AI changes the threat landscape

Microsoft hebt drei Eigenschaften hervor, die Threat Modeling für KI grundlegend verändern:

  • Nondeterminism: Derselbe Input kann über mehrere Runs hinweg unterschiedliche Outputs erzeugen. Das erfordert eine Analyse von Bandbreiten wahrscheinlichen Verhaltens – einschließlich seltener, aber hochwirksamer Ergebnisse.
  • Instruction-following bias: Modelle sind darauf optimiert, hilfreich zu sein, und sind dadurch anfälliger für prompt injection, Zwang und Manipulation – besonders wenn Daten und Instruktionen denselben Input-Kanal teilen.
  • System expansion via tools and memory: Agentische Systeme können APIs aufrufen, State behalten und Workflows autonom auslösen. Wenn etwas schiefgeht, können sich Fehler schnell über Komponenten hinweg verstärken.

Diese Eigenschaften formen bekannte Risiken in neue Varianten um, darunter:

  • Direct and indirect prompt injection (u. a. über externe Inhalte, die das Modell abruft)
  • Tool misuse and privilege escalation through chaining
  • Silent data exfiltration (Outputs oder Tool-Calls, die sensitive Informationen preisgeben)
  • Confidently wrong outputs, die als Fakten behandelt werden
  • Human-centered harms wie Vertrauensverlust, Überabhängigkeit, Verstärkung von Bias und überzeugende Desinformation

Threat model from assets, not attacks

Eine zentrale Empfehlung ist, mit der expliziten Definition dessen zu beginnen, was Sie schützen – weil KI-Assets über Datenbanken und Credentials hinausgehen. Typische KI-spezifische Assets sind:

  • User safety (insbesondere wenn KI-Empfehlungen Handlungen beeinflussen)
  • User trust in Outputs und Verhalten
  • Privacy/Security sensibler Business- und User-Daten
  • Integrity von Prompts, Instruktionen und Kontextdaten
  • Integrity von Agent Actions und nachgelagerten Effekten

Dieses Asset-first-Framing erzwingt außerdem frühe Policy-Entscheidungen: Welche Aktionen darf das System niemals ausführen? Manche Outcomes können unabhängig vom potenziellen Nutzen inakzeptabel sein.

Model the system you actually built

Microsoft betont, dass KI-Threat Modeling den realen Betrieb abbilden muss – nicht idealisierte Diagramme. Achten Sie besonders auf:

  • Wie User tatsächlich mit dem System interagieren
  • Wie Prompts, Memory und Context zusammengestellt und transformiert werden
  • Welche externen Quellen ingestiert werden und welche Trust-Assumptions gelten
  • Welche Tools/APIs das System aufrufen kann (und mit welchen Permissions)
  • Ob Actions reaktiv oder autonom sind – und wo Human Approval erzwungen wird

In KI-Systemen wird die prompt assembly pipeline zur erstklassigen Security Boundary: Context Retrieval, Transformation, Persistenz und Reuse sind die Bereiche, in denen sich „stille“ Trust-Assumptions ansammeln.

Impact on IT admins and platform owners

Für Administratoren, die KI-Lösungen bereitstellen (Custom Apps, Copilots oder agentische Workflows), unterstreicht diese Guidance, dass Controls Folgendes abdecken müssen:

  • Den gesamten data-to-prompt-to-action-Pfad (nicht nur Model Hosting)
  • Permissions und Guardrails für tool access und nachgelagerte Automationen
  • Operational Monitoring für unexpected outputs, ungewöhnliche Tool-Calls und Exfiltration-Patterns

Action items / next steps

  • Inventory AI assets: Trust, Safety sowie Instruction/Context Integrity mit erfassen.
  • Map the prompt pipeline end-to-end: Sources, Retrieval, Transformation, Memory und Reuse.
  • Constrain tool permissions und human approval für Actions mit hohem Impact erzwingen.
  • Test for injection and misuse: auch indirekte Prompt Injection über abgerufene Inhalte einbeziehen.
  • Plan for accidents: Überabhängigkeit durch UX-Cues, Validierungsschritte und Escalation Paths reduzieren.

Brauchen Sie Hilfe mit Security?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

AI securitythreat modelingprompt injectionagentic AIrisk management

Verwandte Beiträge

Security

Trivy-Lieferkettenkompromittierung: Defender-Hinweise

Microsoft hat Hinweise zur Erkennung, Untersuchung und Eindämmung der Trivy-Lieferkettenkompromittierung vom März 2026 veröffentlicht, die die Trivy-Binärdatei und zugehörige GitHub Actions betraf. Der Vorfall ist relevant, weil vertrauenswürdige CI/CD-Sicherheitstools missbraucht wurden, um Anmeldeinformationen aus Build-Pipelines, Cloud-Umgebungen und Entwicklersystemen zu stehlen, während sie scheinbar normal ausgeführt wurden.

Security

KI-Agenten-Governance: Intent sicher ausrichten

Microsoft beschreibt ein Governance-Modell für KI-Agenten, das Benutzer-, Entwickler-, rollenbasierte und organisatorische Intent in Einklang bringt. Das Framework hilft Unternehmen, Agenten nützlich, sicher und compliant zu halten, indem es Verhaltensgrenzen und eine klare Rangfolge bei Konflikten definiert.

Security

Microsoft Defender Predictive Shielding stoppt GPO-Ransomware

Microsoft hat einen realen Ransomware-Fall beschrieben, in dem Defenders Predictive Shielding den Missbrauch von Group Policy Objects (GPOs) erkannte, bevor die Verschlüsselung begann. Durch das Härten der GPO-Verteilung und das Unterbrechen kompromittierter Konten blockierte Defender rund 97 % der versuchten Verschlüsselungsaktivität und verhinderte, dass Geräte über den GPO-Verteilungsweg verschlüsselt wurden.

Security

Agentic AI Sicherheit: Microsofts RSAC 2026 Neuerungen

Microsoft hat auf der RSAC 2026 neue Sicherheitsfunktionen für agentische KI vorgestellt, darunter die allgemeine Verfügbarkeit von Agent 365 ab dem 1. Mai als zentrale Steuerungsebene für Überwachung, Schutz und Governance von AI-Agents. Ergänzt wird dies durch neue Transparenz- und Erkennungstools wie das Security Dashboard for AI und Entra Internet Access Shadow AI Detection, was für Unternehmen wichtig ist, weil der breite Einsatz von AI-Agents neue Risiken bei Datenzugriff, Identitäten und unkontrollierter AI-Nutzung schafft.

Security

CTI-REALM Open Source: Benchmark für AI Detection

Microsoft hat mit CTI-REALM einen Open-Source-Benchmark vorgestellt, der prüft, ob AI-Agents im Security-Betrieb tatsächlich verwertbare Detection-Regeln aus Threat-Intelligence-Berichten ableiten und validieren können. Das ist wichtig, weil Security-Teams damit KI-Modelle nicht nur nach theoretischem Cybersecurity-Wissen, sondern nach ihrem praktischen Nutzen für SOC- und Detection-Engineering-Workflows in realistischen Umgebungen wie Linux, AKS und Azure bewerten können.

Security

Zero Trust for AI: Microsoft Workshop & Architektur

Microsoft erweitert seinen Zero-Trust-Ansatz gezielt auf KI-Umgebungen und führt dafür mit „Zero Trust for AI“ eine neue Leitlinie sowie eine eigene AI-Säule im Zero Trust Workshop ein. Das ist wichtig, weil Unternehmen damit einen strukturierten Rahmen erhalten, um Risiken wie Prompt Injection, Data Poisoning und übermäßige Zugriffe auf Modelle, Prompts und Datenquellen systematisch zu bewerten und mit konkreten Sicherheitskontrollen abzusichern.