Security

AI Observability für sichere GenAI- und Agenten-Systeme

3 Min. Lesezeit

Zusammenfassung

Microsoft stuft „AI Observability“ als zentrale Sicherheitsanforderung im Secure Development Lifecycle ein, weil klassische Monitoring-Signale wie Verfügbarkeit, Latenz oder Fehlerraten Angriffe auf GenAI- und Agenten-Systeme oft nicht erkennen. Entscheidend ist das, weil produktive AI-Systeme mit sensiblen Daten, externen Tools und autonomen Aktionen arbeiten und daher zusätzliche AI-spezifische Signale wie Kontextzusammenstellung und Herkunft von Quellen überwacht werden müssen, um Manipulationen und unautorisierte Aktionen sichtbar zu machen.

Audio-Zusammenfassung

0:00--:--
Brauchen Sie Hilfe mit Security?Mit einem Experten sprechen

Einleitung

Da generative AI und agentische AI den Schritt von Pilotprojekten in die Produktion machen, werden sie Teil zentraler Geschäftsabläufe – häufig mit Zugriff auf sensible Daten, externe Tools und automatisierte Aktionen. Microsofts aktuelle Sicherheitsrichtlinie macht deutlich, dass herkömmliches Uptime- und Performance-Monitoring für diese Systeme nicht länger ausreicht.

Was ist neu

Microsoft erweitert die Diskussion über sichere AI-Entwicklung, indem AI observability als zentrale Anforderung innerhalb seines Secure Development Lifecycle (SDL) positioniert wird.

Warum herkömmliches Monitoring nicht ausreicht

Konventionelle Observability konzentriert sich auf deterministische Anwendungssignale wie:

  • Verfügbarkeit
  • Latenz
  • Durchsatz
  • Fehlerraten

Bei AI-Systemen können diese Signale weiterhin unauffällig bleiben, selbst wenn das System kompromittiert wurde. Microsoft beschreibt Szenarien, in denen ein AI-Agent vergiftete oder bösartige externe Inhalte verarbeitet, sie zwischen Agenten weitergibt und nicht autorisierte Aktionen auslöst, ohne dabei konventionelle Fehler zu erzeugen.

Was AI observability umfassen sollte

Microsoft zufolge muss sich AI observability über Standard-Logs, Metriken und Traces hinaus weiterentwickeln, um AI-native Signale zu erfassen, darunter:

  • Kontextzusammenstellung: Welche Anweisungen, abgerufenen Inhalte, Gesprächsverläufe und Tool-Ausgaben für einen bestimmten Lauf verwendet wurden
  • Source provenance und Vertrauensklassifizierung: Woher Inhalte stammen und ob ihnen vertraut werden sollte
  • Prompt- und Response-Logging: Entscheidend zur Identifizierung von Prompt Injection, Multi-Turn-Jailbreaks und Veränderungen im Modellverhalten
  • Korrelation auf Agenten-Lifecycle-Ebene: Eine stabile Kennung über mehrstufige Unterhaltungen und Interaktionen zwischen Agenten hinweg
  • AI-spezifische Metriken: Token-Nutzung, Retrieval-Volumen, Agenten-Turns und Verhaltensänderungen nach Modell-Updates
  • End-to-end-Traces: Transparenz vom initialen Prompt über die Tool-Nutzung bis zur finalen Ausgabe

Zwei zusätzliche Säulen: Evaluation und Governance

Microsoft erweitert Observability außerdem um:

  • Evaluation: Messung von Ausgabequalität, Grounding, Anweisungsausrichtung und korrekter Tool-Nutzung
  • Governance: Einsatz von Telemetrie und Kontrollen zur Unterstützung von Policy Enforcement, Auditierbarkeit und Verantwortlichkeit

Warum das für IT- und Sicherheitsteams wichtig ist

Für Administratoren, Sicherheitsteams und Verantwortliche von AI-Plattformen unterstreicht die Leitlinie, dass AI-Systeme Sicherheitskontrollen benötigen, die auf probabilistisches und mehrstufiges Verhalten zugeschnitten sind. Ohne umfangreichere Telemetrie könnten Teams Schwierigkeiten haben, Prompt Injection zu erkennen, Pfade der Datenexfiltration nachzuverfolgen, Policy-Compliance zu validieren oder zu erklären, warum sich ein Agent unerwartet verhalten hat.

Das ist besonders relevant für Organisationen, die Copilots, benutzerdefinierte AI-Agents, Retrieval-Augmented-Generation-Apps oder autonome Workflows bereitstellen, die mit Microsoft 365, Geschäftsdaten oder externen APIs verbunden sind.

Empfohlene nächste Schritte

Organisationen sollten ihre aktuellen AI-Monitoring-Praktiken überprüfen und bewerten, ob sie genügend Details erfassen, um AI-spezifische Risiken untersuchen zu können.

Zu den wichtigsten Maßnahmen gehören:

  • Produktive AI-Apps, Copilots und Agents inventarisieren
  • Logging für Prompts, Responses, Tool-Aufrufe und abgerufene Inhalte aktivieren, wo angemessen
  • Tracing auf Konversationsebene über Multi-Turn- und Multi-Agent-Workflows hinweg beibehalten
  • Evaluierungsprozesse für Grounding, Qualität und Policy-Ausrichtung ergänzen
  • AI observability mit Governance-, Audit- und Incident-Response-Prozessen abstimmen

Microsofts Botschaft ist eindeutig: Wenn AI zu produktiver Infrastruktur wird, muss Observability Teil der Sicherheitsgrundlage werden.

Brauchen Sie Hilfe mit Security?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

SecurityAI observabilityGenerative AIagentic AIgovernance

Verwandte Beiträge

Security

Trivy-Lieferkettenkompromittierung: Defender-Hinweise

Microsoft hat Hinweise zur Erkennung, Untersuchung und Eindämmung der Trivy-Lieferkettenkompromittierung vom März 2026 veröffentlicht, die die Trivy-Binärdatei und zugehörige GitHub Actions betraf. Der Vorfall ist relevant, weil vertrauenswürdige CI/CD-Sicherheitstools missbraucht wurden, um Anmeldeinformationen aus Build-Pipelines, Cloud-Umgebungen und Entwicklersystemen zu stehlen, während sie scheinbar normal ausgeführt wurden.

Security

KI-Agenten-Governance: Intent sicher ausrichten

Microsoft beschreibt ein Governance-Modell für KI-Agenten, das Benutzer-, Entwickler-, rollenbasierte und organisatorische Intent in Einklang bringt. Das Framework hilft Unternehmen, Agenten nützlich, sicher und compliant zu halten, indem es Verhaltensgrenzen und eine klare Rangfolge bei Konflikten definiert.

Security

Microsoft Defender Predictive Shielding stoppt GPO-Ransomware

Microsoft hat einen realen Ransomware-Fall beschrieben, in dem Defenders Predictive Shielding den Missbrauch von Group Policy Objects (GPOs) erkannte, bevor die Verschlüsselung begann. Durch das Härten der GPO-Verteilung und das Unterbrechen kompromittierter Konten blockierte Defender rund 97 % der versuchten Verschlüsselungsaktivität und verhinderte, dass Geräte über den GPO-Verteilungsweg verschlüsselt wurden.

Security

Agentic AI Sicherheit: Microsofts RSAC 2026 Neuerungen

Microsoft hat auf der RSAC 2026 neue Sicherheitsfunktionen für agentische KI vorgestellt, darunter die allgemeine Verfügbarkeit von Agent 365 ab dem 1. Mai als zentrale Steuerungsebene für Überwachung, Schutz und Governance von AI-Agents. Ergänzt wird dies durch neue Transparenz- und Erkennungstools wie das Security Dashboard for AI und Entra Internet Access Shadow AI Detection, was für Unternehmen wichtig ist, weil der breite Einsatz von AI-Agents neue Risiken bei Datenzugriff, Identitäten und unkontrollierter AI-Nutzung schafft.

Security

CTI-REALM Open Source: Benchmark für AI Detection

Microsoft hat mit CTI-REALM einen Open-Source-Benchmark vorgestellt, der prüft, ob AI-Agents im Security-Betrieb tatsächlich verwertbare Detection-Regeln aus Threat-Intelligence-Berichten ableiten und validieren können. Das ist wichtig, weil Security-Teams damit KI-Modelle nicht nur nach theoretischem Cybersecurity-Wissen, sondern nach ihrem praktischen Nutzen für SOC- und Detection-Engineering-Workflows in realistischen Umgebungen wie Linux, AKS und Azure bewerten können.

Security

Zero Trust for AI: Microsoft Workshop & Architektur

Microsoft erweitert seinen Zero-Trust-Ansatz gezielt auf KI-Umgebungen und führt dafür mit „Zero Trust for AI“ eine neue Leitlinie sowie eine eigene AI-Säule im Zero Trust Workshop ein. Das ist wichtig, weil Unternehmen damit einen strukturierten Rahmen erhalten, um Risiken wie Prompt Injection, Data Poisoning und übermäßige Zugriffe auf Modelle, Prompts und Datenquellen systematisch zu bewerten und mit konkreten Sicherheitskontrollen abzusichern.