Security

Zero Trust for AI: Microsoft Workshop & Architektur

3 Min. Lesezeit

Zusammenfassung

Microsoft erweitert seinen Zero-Trust-Ansatz gezielt auf KI-Umgebungen und führt dafür mit „Zero Trust for AI“ eine neue Leitlinie sowie eine eigene AI-Säule im Zero Trust Workshop ein. Das ist wichtig, weil Unternehmen damit einen strukturierten Rahmen erhalten, um Risiken wie Prompt Injection, Data Poisoning und übermäßige Zugriffe auf Modelle, Prompts und Datenquellen systematisch zu bewerten und mit konkreten Sicherheitskontrollen abzusichern.

Audio-Zusammenfassung

0:00--:--
Brauchen Sie Hilfe mit Security?Mit einem Experten sprechen

Einführung

Während Unternehmen die Einführung von AI beschleunigen, werden Sicherheitsteams zunehmend damit beauftragt, neue Vertrauensgrenzen rund um Models, Agents, Datenquellen und automatisierte Entscheidungen zu schützen. Microsofts neue Leitlinie Zero Trust for AI (ZT4AI) ist wichtig, weil sie IT- und Sicherheitsverantwortlichen einen strukturierteren Weg bietet, AI-Sicherheit mithilfe vertrauter Zero Trust-Prinzipien zu bewerten, zu entwerfen und operativ umzusetzen.

Was ist neu

Zero Trust-Prinzipien auf AI angewendet

Microsoft erweitert den standardmäßigen Zero Trust-Ansatz auf AI-Umgebungen mit drei zentralen Prinzipien:

  • Verify explicitly: Identität und Verhalten von Benutzern, Workloads und AI-Agents kontinuierlich validieren.
  • Apply least privilege: Den Zugriff auf Prompts, Models, Plugins und Datenquellen auf das unbedingt Erforderliche beschränken.
  • Assume breach: Systeme so gestalten, dass sie gegenüber Prompt Injection, Data Poisoning und lateraler Bewegung widerstandsfähig sind.

Neue AI-Säule im Zero Trust Workshop

Der aktualisierte Zero Trust Workshop umfasst jetzt eine eigene AI-Säule. Microsoft zufolge deckt der Workshop nun Folgendes ab:

  • 700 Sicherheitskontrollen
  • 116 logische Gruppen
  • 33 funktionale Swim Lanes

Der Workshop soll Teams dabei helfen, Security-, IT- und Business-Stakeholder aufeinander abzustimmen, AI-spezifische Risiken zu bewerten und Kontrollen über Microsoft Security-Produkte und -Prozesse hinweg zuzuordnen.

Erweitertes Zero Trust Assessment

Microsoft hat außerdem das Tool Zero Trust Assessment mit neuen Säulen für Data und Network zusätzlich zur bestehenden Abdeckung von Identity und Devices aktualisiert. Das ist besonders relevant für AI-Bereitstellungen, bei denen:

  • sensible Daten klassifiziert, gekennzeichnet und kontrolliert werden müssen
  • Data Loss Prevention noch wichtiger wird
  • Network-Kontrollen dabei helfen können, das Verhalten von Agents zu prüfen und unbefugte Offenlegung zu reduzieren

Microsoft bestätigte außerdem, dass eine AI-spezifische Assessment-Säule in Entwicklung ist und voraussichtlich im Sommer 2026 verfügbar sein wird.

Neue Referenzarchitektur und Muster

Eine neue Zero Trust for AI-Referenzarchitektur bietet ein gemeinsames Modell für die Anwendung richtliniengesteuerter Zugriffskontrollen, kontinuierlicher Verifizierung, Überwachung und Governance über AI-Systeme hinweg. Microsoft hat außerdem praktische Muster und Vorgehensweisen für Bereiche veröffentlicht wie:

  • Threat Modeling für AI
  • AI Observability für Logging, Nachvollziehbarkeit und Monitoring

Auswirkungen für IT-Administratoren und Sicherheitsteams

Für Administratoren bietet diese Ankündigung einen klareren Weg von der Strategie zur Umsetzung. Teams, die für Microsoft Security, Data Governance, Networking und Identity verantwortlich sind, können diese Updates nutzen, um AI-Risiken besser zu bewerten – insbesondere in Bezug auf überprivilegierte Agents, Prompt Injection und unbeabsichtigte Datenfreigabe.

Organisationen, die Copilots, benutzerdefinierte AI-Apps oder autonome Agents einführen, sollten dies als Signal verstehen, dass AI-Sicherheit dieselbe strukturierte Governance benötigt, die bereits für Identity-, Endpoint- und Cloud-Sicherheit verwendet wird.

Nächste Schritte

  • Prüfen Sie den aktualisierten Zero Trust Workshop und identifizieren Sie, wo AI-spezifische Kontrollen in Ihrer Umgebung relevant sind.
  • Nutzen Sie das erweiterte Zero Trust Assessment, um eine Basisbewertung für Identity-, Devices-, Data- und Network-Kontrollen zu erstellen.
  • Ordnen Sie Ihre AI-Bereitstellungen der neuen Referenzarchitektur zu.
  • Priorisieren Sie Governance für Agent-Identität, Datenzugriff, Logging und Schutzmaßnahmen gegen Prompt Injection.
  • Planen Sie die kommende AI-Säule im Zero Trust Assessment für später im Jahr 2026 ein.

Microsofts Botschaft ist klar: AI-Sicherheit sollte nicht als eigenständige Disziplin behandelt werden, sondern als natürliche Erweiterung von Zero Trust.

Brauchen Sie Hilfe mit Security?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

Zero TrustAI securityMicrosoft Securitydata governancenetwork security

Verwandte Beiträge

Security

Trivy-Lieferkettenkompromittierung: Defender-Hinweise

Microsoft hat Hinweise zur Erkennung, Untersuchung und Eindämmung der Trivy-Lieferkettenkompromittierung vom März 2026 veröffentlicht, die die Trivy-Binärdatei und zugehörige GitHub Actions betraf. Der Vorfall ist relevant, weil vertrauenswürdige CI/CD-Sicherheitstools missbraucht wurden, um Anmeldeinformationen aus Build-Pipelines, Cloud-Umgebungen und Entwicklersystemen zu stehlen, während sie scheinbar normal ausgeführt wurden.

Security

KI-Agenten-Governance: Intent sicher ausrichten

Microsoft beschreibt ein Governance-Modell für KI-Agenten, das Benutzer-, Entwickler-, rollenbasierte und organisatorische Intent in Einklang bringt. Das Framework hilft Unternehmen, Agenten nützlich, sicher und compliant zu halten, indem es Verhaltensgrenzen und eine klare Rangfolge bei Konflikten definiert.

Security

Microsoft Defender Predictive Shielding stoppt GPO-Ransomware

Microsoft hat einen realen Ransomware-Fall beschrieben, in dem Defenders Predictive Shielding den Missbrauch von Group Policy Objects (GPOs) erkannte, bevor die Verschlüsselung begann. Durch das Härten der GPO-Verteilung und das Unterbrechen kompromittierter Konten blockierte Defender rund 97 % der versuchten Verschlüsselungsaktivität und verhinderte, dass Geräte über den GPO-Verteilungsweg verschlüsselt wurden.

Security

Agentic AI Sicherheit: Microsofts RSAC 2026 Neuerungen

Microsoft hat auf der RSAC 2026 neue Sicherheitsfunktionen für agentische KI vorgestellt, darunter die allgemeine Verfügbarkeit von Agent 365 ab dem 1. Mai als zentrale Steuerungsebene für Überwachung, Schutz und Governance von AI-Agents. Ergänzt wird dies durch neue Transparenz- und Erkennungstools wie das Security Dashboard for AI und Entra Internet Access Shadow AI Detection, was für Unternehmen wichtig ist, weil der breite Einsatz von AI-Agents neue Risiken bei Datenzugriff, Identitäten und unkontrollierter AI-Nutzung schafft.

Security

CTI-REALM Open Source: Benchmark für AI Detection

Microsoft hat mit CTI-REALM einen Open-Source-Benchmark vorgestellt, der prüft, ob AI-Agents im Security-Betrieb tatsächlich verwertbare Detection-Regeln aus Threat-Intelligence-Berichten ableiten und validieren können. Das ist wichtig, weil Security-Teams damit KI-Modelle nicht nur nach theoretischem Cybersecurity-Wissen, sondern nach ihrem praktischen Nutzen für SOC- und Detection-Engineering-Workflows in realistischen Umgebungen wie Linux, AKS und Azure bewerten können.

Security

Microsoft warnt vor Steuer-Phishing auf Microsoft 365

Microsoft warnt vor einer Welle steuerbezogener Phishing- und Malware-Kampagnen auf Microsoft 365, die Themen wie Steuerunterlagen, W-2-Formulare und Rückerstattungen nutzen, um Anmeldedaten zu stehlen oder Schadsoftware auszuliefern. Besonders relevant ist, dass die Angriffe zunehmend zielgerichtet sind und mit QR-Codes, mehrstufigen Weiterleitungen, Cloud-Dateien und legitimen RMM-Tools klassische Schutzmechanismen umgehen – Unternehmen sollten ihre Erkennung, Schulungen und Absicherung rund um die Steuersaison daher gezielt verstärken.