Security

AI-Sicherheitsleitfaden für CISOs: Praxisnah

3 Min. Lesezeit

Zusammenfassung

Microsoft rät CISOs, AI-Systeme mit denselben grundlegenden Kontrollen abzusichern, die sie bereits für Software, Identitäten und Datenzugriff einsetzen. Die Empfehlungen betonen Least Privilege, Schutz vor Prompt Injection und den Einsatz von AI selbst, um Berechtigungsprobleme aufzudecken, bevor Angreifer oder Nutzer sie finden.

Audio-Zusammenfassung

0:00--:--
Brauchen Sie Hilfe mit Security?Mit einem Experten sprechen

Einführung

Die Einführung von AI beschleunigt sich in Unternehmen, doch Microsofts aktuelle Empfehlungen machen eines deutlich: AI sollte nicht als Magie behandelt werden. Für CISOs ist der effektivste Ansatz, vertraute Sicherheitsgrundlagen auf AI-Systeme anzuwenden und dabei neue Risiken wie Prompt Injection und übermäßig offengelegte Daten zu berücksichtigen.

Was Microsoft empfiehlt

Microsoft beschreibt AI sowohl als Junior-Assistenten als auch als Software. Das bedeutet, dass Unternehmen starke Governance mit traditionellen Sicherheitskontrollen kombinieren sollten.

Zentrale Sicherheitsprinzipien

  • AI wie Software behandeln: AI-Systeme arbeiten mit Identitäten, Berechtigungen und Zugriffswegen genau wie andere Anwendungen.
  • Least Privilege und Least Agency verwenden: Geben Sie AI nur die Daten, APIs und Aktionen, die sie für ihren spezifischen Zweck benötigt.
  • AI niemals über Zugriffskontrollen entscheiden lassen: Autorisierung sollte deterministisch bleiben und durch Nicht-AI-Kontrollen durchgesetzt werden.
  • Geeignete Identitäten zuweisen: Verwenden Sie getrennte Service-Identitäten oder von Benutzern abgeleitete Identitäten, passend zum Anwendungsfall.
  • Auf bösartige Eingaben testen: Besonders dann, wenn AI im Namen von Benutzern bedeutsame Aktionen ausführen kann.

Neue AI-spezifische Risiken im Blick behalten

Microsoft hebt indirekte Prompt-Injection-Angriffe (XPIA) als zentrales Problem hervor. Dies geschieht, wenn AI nicht vertrauenswürdige Inhalte fälschlicherweise als Anweisungen interpretiert, etwa versteckten Text in Lebensläufen oder Dokumenten.

Zur Reduzierung dieses Risikos empfiehlt Microsoft:

  • Den Einsatz von Schutzmechanismen wie Spotlighting und Prompt Shield
  • Eine sorgfältige Validierung, wie AI externe oder nicht vertrauenswürdige Inhalte verarbeitet
  • Die Aufteilung von Aufgaben in kleinere, explizite Schritte, um Zuverlässigkeit zu verbessern und Fehler zu reduzieren

Warum das für IT- und Sicherheitsteams wichtig ist

Eine der wichtigsten Erkenntnisse ist, dass AI bestehende Probleme bei Datenhygiene und Berechtigungen schneller sichtbar machen kann als herkömmliche Suche oder manuelle Prüfungen. Da AI zugängliche Daten leichter auffindbar macht und zusammenfassen kann, können Nutzer Informationen sichtbar machen, auf die sie technisch Zugriff hatten, von denen aber nie erwartet wurde, dass sie sie leicht entdecken.

Microsoft empfiehlt einen praxisnahen Test: Verwenden Sie ein Standardbenutzerkonto mit dem Microsoft 365 Copilot Researcher-Modus und fragen Sie nach vertraulichen Themen, auf die dieser Benutzer keinen Zugriff haben sollte. Findet die AI sensible Informationen, kann dies auf zugrunde liegende Berechtigungslücken hinweisen, die umgehend bereinigt werden müssen.

Empfohlene nächste Schritte

Sicherheitsteams sollten AI-Bereitstellungen anhand bestehender Zero-Trust-Prinzipien und Data-Governance-Richtlinien überprüfen.

  • Berechtigungen prüfen und überprovisionierte Zugriffe entfernen
  • Prüfen, wo sensible Daten in der gesamten digitalen Umgebung gespeichert sind
  • Identitätskontrollen und Just-in-Time-Zugriff stärken
  • Veraltete Protokolle und Formate blockieren, die nicht mehr benötigt werden
  • Prompt-Injection-Tests in AI-Sicherheitsbewertungen aufnehmen
  • Klare menschliche Freigabepunkte für folgenreiche AI-Aktionen definieren

Fazit

Microsofts Botschaft an CISOs ist praxisnah: Sichern Sie AI genauso ab wie jedes leistungsfähige Softwaresystem und ergänzen Sie dann Kontrollen für AI-spezifische Fehlermodi. Unternehmen, die Datenhygiene verbessern, Zugriffe einschränken und das Verhalten von AI validieren, sind besser aufgestellt, um AI sicher und im großen Maßstab einzuführen.

Brauchen Sie Hilfe mit Security?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

AI securityCISOZero TrustMicrosoft 365 Copilotprompt injection

Verwandte Beiträge

Security

Kritische Infrastruktur: Sicherheitsbereitschaft 2026

Microsoft sagt, dass sich das Bedrohungsmodell für kritische Infrastruktur von opportunistischen Angriffen zu dauerhaftem, identitätsbasiertem Zugriff verlagert hat, der auf spätere Störungen ausgelegt ist. Für IT- und Sicherheitsverantwortliche ist die Botschaft klar: Angriffsfläche reduzieren, Identitäten absichern und die operative Bereitschaft jetzt validieren, da Regulierung und Aktivitäten von Nationalstaaten zunehmen.

Security

WhatsApp-Malware-Kampagne mit VBS- und MSI-Backdoors

Microsoft Defender Experts haben eine Kampagne von Ende Februar 2026 aufgedeckt, die WhatsApp-Nachrichten nutzt, um schädliche VBS-Dateien auszuliefern, und anschließend unsignierte MSI-Pakete für Persistenz und Remotezugriff installiert. Der Angriff kombiniert Social Engineering, umbenannte Windows-Dienstprogramme und vertrauenswürdige Cloud-Dienste zur Umgehung der Erkennung, wodurch Endpoint-Kontrollen und Nutzeraufklärung entscheidend werden.

Security

Microsoft Copilot Studio gegen OWASP-AI-Risiken

Microsoft erläutert, wie Copilot Studio und die bevorstehende allgemeine Verfügbarkeit von Agent 365 Unternehmen dabei helfen können, die OWASP Top 10 für Agentic Applications zu adressieren. Die Hinweise sind wichtig, weil agentische AI-Systeme echte Identitäten, Daten und Tools nutzen können und dadurch Sicherheitsrisiken entstehen, die weit über ungenaue Ausgaben hinausgehen.

Security

Microsoft Defender HVA-Schutz blockiert Angriffe

Microsoft hat erläutert, wie Microsoft Defender mit High-Value-Asset-Erkennung Angriffe auf Domain Controller, Webserver und Identitätsinfrastruktur erkennt und stoppt. Durch die Kombination von Kontext aus Security Exposure Management mit differenzierten Erkennungen und automatischer Unterbrechung kann Defender das Schutzniveau für Tier-0-Assets erhöhen und die Auswirkungen komplexer Angriffe reduzieren.

Security

Microsoft Entra Identitätssicherheit: RSAC 2026

Microsoft positioniert Identitätssicherheit als eine einheitliche Steuerungsebene, die Identitätsinfrastruktur, Zugriffsentscheidungen und Bedrohungsschutz in Echtzeit zusammenführt. Auf der RSAC 2026 kündigte das Unternehmen neue Funktionen für Microsoft Entra und Defender an, darunter ein Dashboard für Identitätssicherheit, ein einheitliches Identitätsrisiko-Scoring und adaptive Risikobehebung, um Unternehmen dabei zu helfen, Fragmentierung zu reduzieren und schneller auf identitätsbasierte Angriffe zu reagieren.

Security

Trivy-Lieferkettenkompromittierung: Defender-Hinweise

Microsoft hat Hinweise zur Erkennung, Untersuchung und Eindämmung der Trivy-Lieferkettenkompromittierung vom März 2026 veröffentlicht, die die Trivy-Binärdatei und zugehörige GitHub Actions betraf. Der Vorfall ist relevant, weil vertrauenswürdige CI/CD-Sicherheitstools missbraucht wurden, um Anmeldeinformationen aus Build-Pipelines, Cloud-Umgebungen und Entwicklersystemen zu stehlen, während sie scheinbar normal ausgeführt wurden.