Security

Copilot Studio Agents absichern: 10 Fehlkonfigurationen

3 Min. Lesezeit

Zusammenfassung

Microsoft warnt vor zehn häufigen Fehlkonfigurationen in Copilot Studio Agents, darunter zu weitreichendes Sharing, fehlende Authentifizierung und riskante HTTP-Aktionen, die neue Angriffswege und Datenabfluss ermöglichen. Besonders relevant ist, dass das Unternehmen dafür passende Community Queries in Microsoft Defender Advanced Hunting bereitstellt, damit Sicherheitsteams diese Schwachstellen proaktiv erkennen und ihre Governance für KI-Agenten verbessern können.

Brauchen Sie Hilfe mit Security?Mit einem Experten sprechen

Einführung: warum das wichtig ist

Copilot Studio Agents werden zunehmend fest in operative Workflows eingebunden – sie ziehen Daten, lösen Aktionen aus und interagieren in großem Maßstab mit internen Systemen. Genau diese Automatisierung eröffnet jedoch auch neue Angriffswege, wenn Agents zu breit geteilt werden, mit übermäßigen Berechtigungen laufen oder standardisierte Governance-Kontrollen umgehen. Das Microsoft Defender Security Research-Team beobachtet diese Probleme „in the wild“, oft ohne offensichtliche Warnungen – proaktive Erkennung sowie laufendes Posture-Management sind daher entscheidend.

Was ist neu: 10 häufige Risiken bei Copilot Studio Agents (und wie man sie erkennt)

Microsoft hat eine praxisnahe Top-10-Liste von Fehlkonfigurationen bei Agents veröffentlicht und jede davon Microsoft Defender Advanced Hunting Community Queries zugeordnet (Security portal → Advanced huntingQueriesCommunity queries → Ordner AI Agent). Zu den zentralen Risiken zählen:

  1. Zu weitreichendes Sharing (gesamte Organisation oder große Gruppen) – vergrößert die Angriffsfläche und ermöglicht unbeabsichtigte Nutzung.
  2. Keine Authentifizierung erforderlich – schafft öffentliche/anonyme Einstiegspunkte und potenziellen Datenabfluss.
  3. Riskante HTTP Request-Aktionen – Aufrufe an Connector-Endpunkte, nicht-HTTPS oder nicht standardisierte Ports können Connector-Governance sowie Identitätskontrollen umgehen.
  4. E-Mail-basierte Daten-Exfiltrationspfade – Agents, die E-Mails an KI-gesteuerte Werte oder externe Postfächer senden, können prompt-injection-getriebene Exfiltration ermöglichen.
  5. Inaktive Agents/Aktionen/Verbindungen – veraltete Komponenten werden zu versteckter Angriffsfläche mit fortbestehenden Berechtigungen.
  6. Author (maker) authentication – untergräbt die Funktionstrennung und kann Privilege Escalation begünstigen.
  7. Hard-coded credentials in Topics/Aktionen – erhöht die Wahrscheinlichkeit von Credential Leakage und Wiederverwendung.
  8. Model Context Protocol (MCP) tools konfiguriert – kann undokumentierte Zugriffspfade und unbeabsichtigte Systeminteraktionen einführen.
  9. Generative orchestration ohne Anweisungen – höheres Risiko für Verhaltensdrift und Prompt-Missbrauch.
  10. Orphaned agents (kein aktiver Owner) – schwache Governance und über die Zeit ungemanagter Zugriff.

Auswirkungen auf IT-Admins und Security-Teams

  • Visibility Gap: Diese Fehlkonfigurationen wirken bei der Erstellung oft nicht bösartig und lösen möglicherweise keine klassischen Alerts aus.
  • Risiken für Identität und Daten: Unauthentifizierter Zugriff, Maker-Credentials und breites Sharing können einen Agent zu einem „Low-Friction“-Pivot in Unternehmensdaten machen.
  • Umgehung von Governance: Direkte HTTP-Aktionen können Power Platform Connector-Schutzmechanismen umgehen (Validierung, Throttling, Identity Enforcement).
  • Betriebsrisiko: Orphaned oder inaktive Agents bewahren Business-Logik und Zugriffsrechte, lange nachdem Ownership und Zweck unklar sind.

Maßnahmen / nächste Schritte

  1. Führen Sie die AI Agent Community Queries jetzt aus und erstellen Sie eine Baseline der Ergebnisse (starten Sie mit: org-weites Sharing, No-Auth-Agents, Author Authentication, Hard-coded Credentials).
  2. Sharing und Authentifizierung verschärfen: Least-Privilege-Zugriff erzwingen und Authentifizierung für alle produktiven Agents verlangen.
  3. HTTP Request-Nutzung prüfen: Bevorzugen Sie governte Connectors; markieren Sie nicht-HTTPS und nicht standardisierte Ports zur sofortigen Behebung.
  4. Outbound-E-Mail-Szenarien kontrollieren: Externe Empfänger einschränken, dynamische Inputs validieren und auf prompt-injection-ähnliche Muster überwachen.
  5. Lifecycle-Governance etablieren: Agents inventarisieren, Orphaned Agents entfernen oder neu zuweisen und inaktive Verbindungen/Aktionen stilllegen.

Indem Sie Agent-Konfiguration als Teil Ihrer Security Posture behandeln – und kontinuierlich nach diesen Mustern suchen –, reduzieren Sie die Exposure, bevor Angreifer sie operationalisieren.

Brauchen Sie Hilfe mit Security?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

Copilot StudioMicrosoft DefenderAdvanced HuntingAI securityPower Platform governance

Verwandte Beiträge

Security

Trivy-Lieferkettenkompromittierung: Defender-Hinweise

Microsoft hat Hinweise zur Erkennung, Untersuchung und Eindämmung der Trivy-Lieferkettenkompromittierung vom März 2026 veröffentlicht, die die Trivy-Binärdatei und zugehörige GitHub Actions betraf. Der Vorfall ist relevant, weil vertrauenswürdige CI/CD-Sicherheitstools missbraucht wurden, um Anmeldeinformationen aus Build-Pipelines, Cloud-Umgebungen und Entwicklersystemen zu stehlen, während sie scheinbar normal ausgeführt wurden.

Security

KI-Agenten-Governance: Intent sicher ausrichten

Microsoft beschreibt ein Governance-Modell für KI-Agenten, das Benutzer-, Entwickler-, rollenbasierte und organisatorische Intent in Einklang bringt. Das Framework hilft Unternehmen, Agenten nützlich, sicher und compliant zu halten, indem es Verhaltensgrenzen und eine klare Rangfolge bei Konflikten definiert.

Security

Microsoft Defender Predictive Shielding stoppt GPO-Ransomware

Microsoft hat einen realen Ransomware-Fall beschrieben, in dem Defenders Predictive Shielding den Missbrauch von Group Policy Objects (GPOs) erkannte, bevor die Verschlüsselung begann. Durch das Härten der GPO-Verteilung und das Unterbrechen kompromittierter Konten blockierte Defender rund 97 % der versuchten Verschlüsselungsaktivität und verhinderte, dass Geräte über den GPO-Verteilungsweg verschlüsselt wurden.

Security

Agentic AI Sicherheit: Microsofts RSAC 2026 Neuerungen

Microsoft hat auf der RSAC 2026 neue Sicherheitsfunktionen für agentische KI vorgestellt, darunter die allgemeine Verfügbarkeit von Agent 365 ab dem 1. Mai als zentrale Steuerungsebene für Überwachung, Schutz und Governance von AI-Agents. Ergänzt wird dies durch neue Transparenz- und Erkennungstools wie das Security Dashboard for AI und Entra Internet Access Shadow AI Detection, was für Unternehmen wichtig ist, weil der breite Einsatz von AI-Agents neue Risiken bei Datenzugriff, Identitäten und unkontrollierter AI-Nutzung schafft.

Security

CTI-REALM Open Source: Benchmark für AI Detection

Microsoft hat mit CTI-REALM einen Open-Source-Benchmark vorgestellt, der prüft, ob AI-Agents im Security-Betrieb tatsächlich verwertbare Detection-Regeln aus Threat-Intelligence-Berichten ableiten und validieren können. Das ist wichtig, weil Security-Teams damit KI-Modelle nicht nur nach theoretischem Cybersecurity-Wissen, sondern nach ihrem praktischen Nutzen für SOC- und Detection-Engineering-Workflows in realistischen Umgebungen wie Linux, AKS und Azure bewerten können.

Security

Zero Trust for AI: Microsoft Workshop & Architektur

Microsoft erweitert seinen Zero-Trust-Ansatz gezielt auf KI-Umgebungen und führt dafür mit „Zero Trust for AI“ eine neue Leitlinie sowie eine eigene AI-Säule im Zero Trust Workshop ein. Das ist wichtig, weil Unternehmen damit einen strukturierten Rahmen erhalten, um Risiken wie Prompt Injection, Data Poisoning und übermäßige Zugriffe auf Modelle, Prompts und Datenquellen systematisch zu bewerten und mit konkreten Sicherheitskontrollen abzusichern.