Security

Microsoft Cyber Pulse: AI-Agent Sprawl & Zero Trust

3 Min. Lesezeit

Zusammenfassung

Microsofts aktueller Cyber Pulse Report zeigt, dass KI-Agenten inzwischen breit in Unternehmen eingesetzt werden, oft per Low-Code/No-Code und teils autonom – während vielen Organisationen der Überblick über Anzahl, Verantwortlichkeiten und Zugriffsrechte fehlt. Das ist sicherheitskritisch, weil „Shadow AI“ und unklare Governance neue Angriffs- und Compliance-Risiken schaffen und deshalb Zero-Trust-Prinzipien, Inventarisierung und klare Kontrollen jetzt zur Priorität werden.

Brauchen Sie Hilfe mit Security?Mit einem Experten sprechen

Einführung: warum das jetzt wichtig ist

AI agents sind nicht mehr experimentell – sie sind in tägliche Workflows in Vertrieb, Finanzen, Security Operations und Customer Service eingebettet. Microsofts aktueller Cyber Pulse-Report zeigt eine kritische Lücke: Viele Organisationen führen Agents schneller ein, als sie diese inventarisieren, govern und absichern können. Für IT- und Security-Teams ist die unmittelbare Herausforderung die Sichtbarkeit – denn man kann nicht schützen (oder auditieren), was man nicht sieht.

Was ist neu / zentrale Erkenntnisse aus dem Report

AI agents sind Mainstream – und nicht auf Entwickler beschränkt

  • 80%+ der Fortune 500-Organisationen nutzen aktive AI agents, häufig erstellt mit low-code/no-code-Tools.
  • Die Einführung erstreckt sich über Branchen (insbesondere Software/Technologie, Fertigung, Finanzdienstleistungen und Einzelhandel) sowie globale Regionen.
  • Agents laufen zunehmend in autonomen Modi und führen Aktionen mit minimaler menschlicher Beteiligung aus – das verändert das Risikoprofil im Vergleich zu traditionellen Apps.

Der entstehende blinde Fleck: „shadow AI“

Microsoft stellt fest, dass viele Führungskräfte grundlegende Fragen nicht beantworten können:

  • Wie viele Agents existieren im gesamten Unternehmen?
  • Wer ist dafür verantwortlich?
  • Auf welche Daten und Systeme greifen sie zu?
  • Welche sind genehmigt vs. nicht genehmigt?

Das ist nicht theoretisch. Der Report nennt, dass 29% der Mitarbeitenden nicht genehmigte AI agents für Arbeitsaufgaben genutzt haben – und damit neue Pfade für Datenexponierung, Policy-Verstöße und Missbrauch geerbter Berechtigungen eröffnen.

Zero Trust-Prinzipien – jetzt im großen Maßstab auf nicht-menschliche Nutzer angewendet

Der Report betont, etablierte Zero Trust-Prinzipien konsequent auch auf Agents anzuwenden:

  • Least privilege access (Agents erhalten nur das, was sie benötigen)
  • Explicit verification (Identität und Kontext bei Zugriffsanfragen validieren)
  • Assume compromise (für Breach und schnelle Eindämmung designen)

Observability kommt zuerst: fünf erforderliche Fähigkeiten

Microsoft skizziert fünf Kernfähigkeiten, um echte Observability und Governance für AI agents aufzubauen:

  1. Registry: ein zentrales Inventar/Single Source of Truth für alle Agents (einschließlich Third-Party und Shadow)
  2. Access control: identity- und policy-gesteuerte Kontrollen, die Least Privilege konsistent durchsetzen
  3. Visualization: Dashboards/Telemetry, um Verhalten, Abhängigkeiten und Risiken zu verstehen
  4. Interoperability: konsistente Governance über Microsoft-, Open-Source- und Third-Party-Ökosysteme hinweg
  5. Security: Schutzmechanismen, um Missbrauch, Drift und Kompromittierung früh zu erkennen

Auswirkungen auf IT-Administratoren und Endanwender

  • Identity wird zur Control Plane für Agents: Behandeln Sie Agents wie Mitarbeitende oder Service Accounts – mit gesteuertem Zugriff und Nachvollziehbarkeit.
  • Compliance- und Audit-Druck steigt, insbesondere in regulierten Sektoren (Finanzen, Gesundheitswesen, öffentlicher Sektor).
  • Endanwender werden weiterhin Tools einführen, wenn keine genehmigten Optionen verfügbar sind – Enablement plus Guardrails sind daher essenziell.

Action Items / nächste Schritte

  • Etablieren Sie umgehend einen Ansatz für Agent Inventory/Registry (starten Sie mit genehmigten Plattformen und erweitern Sie auf Discovery nicht genehmigter Nutzung).
  • Definieren Sie Ownership und Lifecycle (Erstellung, Freigabe, Change Control, Retirement) für Agents – Governance ist nicht dasselbe wie Security.
  • Setzen Sie Least privilege für Agent-Identitäten durch (prüfen Sie Access Paths, Secrets, Connectors und Data Scope).
  • Implementieren Sie Monitoring und Telemetry, um anomales Verhalten und Access Drift zu erkennen.
  • Richten Sie ein bereichsübergreifendes Team aus (IT, Security, Legal, Compliance, HR, Business Owner), um AI-Risiken als Enterprise Risk zu behandeln.

Brauchen Sie Hilfe mit Security?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

Zero TrustAI agentsgovernanceobservabilityrisk management

Verwandte Beiträge

Security

Trivy-Lieferkettenkompromittierung: Defender-Hinweise

Microsoft hat Hinweise zur Erkennung, Untersuchung und Eindämmung der Trivy-Lieferkettenkompromittierung vom März 2026 veröffentlicht, die die Trivy-Binärdatei und zugehörige GitHub Actions betraf. Der Vorfall ist relevant, weil vertrauenswürdige CI/CD-Sicherheitstools missbraucht wurden, um Anmeldeinformationen aus Build-Pipelines, Cloud-Umgebungen und Entwicklersystemen zu stehlen, während sie scheinbar normal ausgeführt wurden.

Security

KI-Agenten-Governance: Intent sicher ausrichten

Microsoft beschreibt ein Governance-Modell für KI-Agenten, das Benutzer-, Entwickler-, rollenbasierte und organisatorische Intent in Einklang bringt. Das Framework hilft Unternehmen, Agenten nützlich, sicher und compliant zu halten, indem es Verhaltensgrenzen und eine klare Rangfolge bei Konflikten definiert.

Security

Microsoft Defender Predictive Shielding stoppt GPO-Ransomware

Microsoft hat einen realen Ransomware-Fall beschrieben, in dem Defenders Predictive Shielding den Missbrauch von Group Policy Objects (GPOs) erkannte, bevor die Verschlüsselung begann. Durch das Härten der GPO-Verteilung und das Unterbrechen kompromittierter Konten blockierte Defender rund 97 % der versuchten Verschlüsselungsaktivität und verhinderte, dass Geräte über den GPO-Verteilungsweg verschlüsselt wurden.

Security

Agentic AI Sicherheit: Microsofts RSAC 2026 Neuerungen

Microsoft hat auf der RSAC 2026 neue Sicherheitsfunktionen für agentische KI vorgestellt, darunter die allgemeine Verfügbarkeit von Agent 365 ab dem 1. Mai als zentrale Steuerungsebene für Überwachung, Schutz und Governance von AI-Agents. Ergänzt wird dies durch neue Transparenz- und Erkennungstools wie das Security Dashboard for AI und Entra Internet Access Shadow AI Detection, was für Unternehmen wichtig ist, weil der breite Einsatz von AI-Agents neue Risiken bei Datenzugriff, Identitäten und unkontrollierter AI-Nutzung schafft.

Security

CTI-REALM Open Source: Benchmark für AI Detection

Microsoft hat mit CTI-REALM einen Open-Source-Benchmark vorgestellt, der prüft, ob AI-Agents im Security-Betrieb tatsächlich verwertbare Detection-Regeln aus Threat-Intelligence-Berichten ableiten und validieren können. Das ist wichtig, weil Security-Teams damit KI-Modelle nicht nur nach theoretischem Cybersecurity-Wissen, sondern nach ihrem praktischen Nutzen für SOC- und Detection-Engineering-Workflows in realistischen Umgebungen wie Linux, AKS und Azure bewerten können.

Security

Zero Trust for AI: Microsoft Workshop & Architektur

Microsoft erweitert seinen Zero-Trust-Ansatz gezielt auf KI-Umgebungen und führt dafür mit „Zero Trust for AI“ eine neue Leitlinie sowie eine eigene AI-Säule im Zero Trust Workshop ein. Das ist wichtig, weil Unternehmen damit einen strukturierten Rahmen erhalten, um Risiken wie Prompt Injection, Data Poisoning und übermäßige Zugriffe auf Modelle, Prompts und Datenquellen systematisch zu bewerten und mit konkreten Sicherheitskontrollen abzusichern.