Security

Copilot Studio-Agents absichern: 10 Defender-Risiken

3 Min. Lesezeit

Zusammenfassung

Microsoft warnt vor zehn häufigen Fehlkonfigurationen in Copilot Studio-Agents, darunter zu breite Freigaben, fehlende Authentifizierung, riskante HTTP-Requests und potenzielle Exfiltrationspfade per E-Mail. Wichtig ist das, weil solche scheinbar kleinen Konfigurationsfehler zu ernsthaften Sicherheitslücken in produktiven Workflows führen können – Microsoft Defender stellt dafür nun konkrete Advanced-Hunting-Abfragen bereit, um Risiken frühzeitig zu erkennen und abzusichern.

Audio-Zusammenfassung

0:00--:--
Brauchen Sie Hilfe mit Security?Mit einem Experten sprechen

Introduction: why this matters

Copilot Studio-Agents werden zunehmend in operative Workflows eingebettet – sie fragen Daten ab, lösen Aktionen aus und interagieren in großem Maßstab mit Systemen. Das Defender Security Research Team warnt, dass kleine, gut gemeinte Konfigurationsentscheidungen (breites Sharing, schwache Auth, riskante Aktionen) unbemerkt zu Exposure-Punkten mit hoher Auswirkung werden können. Die gute Nachricht: Microsoft Defender kann helfen, diese Zustände frühzeitig zu erkennen – mit Advanced Hunting Community Queries.

What’s new: 10 misconfigurations to hunt for

Microsoft hat eine „One-Page View“ der häufigsten Copilot Studio-Agent-Risiken veröffentlicht, die in realen Umgebungen beobachtet wurden, inklusive passender Detections in Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → AI Agent folder).

Hervorgehobene Kernrisiken sind:

  • Overbroad sharing (mit der gesamten Org oder breiten Gruppen geteilt): erhöht die Angriffsfläche und begünstigt unbeabsichtigte Nutzung.
  • No authentication required: macht einen Agent zu einem öffentlichen/anonymen Einstiegspunkt, der interne Daten oder Logik offenlegen kann.
  • Risky HTTP Request actions: Nutzung von non-HTTPS, nicht standardisierten Ports oder direkte Aufrufe von Endpoints, die über Connectors governed werden sollten – umgeht Policy- und Identity-Schutzmechanismen.
  • Email-based data exfiltration paths: Agents, die E-Mail an attacker-controlled inputs oder externe Mailboxen senden können (besonders gefährlich bei Prompt Injection).
  • Dormant agents, actions, or connections: „vergessene“ veröffentlichte Agents und veraltete Connections schaffen versteckten, privilegierten Zugriff.
  • Author (maker) authentication in production: durchbricht Separation of Duties und kann effektiv mit erhöhten Maker-Rechten laufen.
  • Hard-coded credentials in topics/actions: direktes Risiko der Credential-Leakage.
  • Model Context Protocol (MCP) tools configured: können undokumentierte Zugriffspfade und unbeabsichtigte Systeminteraktionen einführen.
  • Generative orchestration without instructions: erhöht die Wahrscheinlichkeit von Behavior Drift oder prompt-getriebenen unsicheren Aktionen.
  • Orphaned agents (kein aktiver Owner): schwache Governance, keine verantwortliche Pflege und höheres Risiko veralteter Logik.

Impact on IT admins and security teams

Für Admins, die Power Platform und Microsoft 365 Security verwalten, lautet die zentrale Erkenntnis: Die Security Posture von Agents ist jetzt Teil von Identity- und Data Governance. Fehlkonfigurationen können neue Zugriffspfade schaffen, die klassische App-Inventare, Conditional-Access-Annahmen oder Connector-Policies nicht vollständig abbilden – insbesondere, wenn Agents schnell durch Maker erstellt werden.

Action items / next steps

  1. Führen Sie die Community Queries aus in Defenders Advanced Hunting (AI Agent folder) und erstellen Sie eine Baseline der Ergebnisse über alle Umgebungen.
  2. Priorisieren Sie Remediation für: nicht authentifizierte Agents, org-weites Sharing, maker-auth Agents sowie jede Fähigkeit zum Versand externer E-Mails.
  3. Überprüfen Sie die Nutzung von HTTP Request und ersetzen Sie diese, wo möglich, durch governed Connectors; erzwingen Sie HTTPS und Standard-Ports.
  4. Bereinigen Sie dormant/orphaned Assets: nehmen Sie ungenutzte Agents/Aktionen außer Betrieb und rotieren/entfernen Sie veraltete Connections.
  5. Etablieren Sie operative Guardrails: benannter Owner, dokumentierter Zweck, Least-Privilege-Connections und verpflichtende Instructions für Generative Orchestration.

Brauchen Sie Hilfe mit Security?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Verwandte Beiträge

Security

Trivy-Lieferkettenkompromittierung: Defender-Hinweise

Microsoft hat Hinweise zur Erkennung, Untersuchung und Eindämmung der Trivy-Lieferkettenkompromittierung vom März 2026 veröffentlicht, die die Trivy-Binärdatei und zugehörige GitHub Actions betraf. Der Vorfall ist relevant, weil vertrauenswürdige CI/CD-Sicherheitstools missbraucht wurden, um Anmeldeinformationen aus Build-Pipelines, Cloud-Umgebungen und Entwicklersystemen zu stehlen, während sie scheinbar normal ausgeführt wurden.

Security

KI-Agenten-Governance: Intent sicher ausrichten

Microsoft beschreibt ein Governance-Modell für KI-Agenten, das Benutzer-, Entwickler-, rollenbasierte und organisatorische Intent in Einklang bringt. Das Framework hilft Unternehmen, Agenten nützlich, sicher und compliant zu halten, indem es Verhaltensgrenzen und eine klare Rangfolge bei Konflikten definiert.

Security

Microsoft Defender Predictive Shielding stoppt GPO-Ransomware

Microsoft hat einen realen Ransomware-Fall beschrieben, in dem Defenders Predictive Shielding den Missbrauch von Group Policy Objects (GPOs) erkannte, bevor die Verschlüsselung begann. Durch das Härten der GPO-Verteilung und das Unterbrechen kompromittierter Konten blockierte Defender rund 97 % der versuchten Verschlüsselungsaktivität und verhinderte, dass Geräte über den GPO-Verteilungsweg verschlüsselt wurden.

Security

Agentic AI Sicherheit: Microsofts RSAC 2026 Neuerungen

Microsoft hat auf der RSAC 2026 neue Sicherheitsfunktionen für agentische KI vorgestellt, darunter die allgemeine Verfügbarkeit von Agent 365 ab dem 1. Mai als zentrale Steuerungsebene für Überwachung, Schutz und Governance von AI-Agents. Ergänzt wird dies durch neue Transparenz- und Erkennungstools wie das Security Dashboard for AI und Entra Internet Access Shadow AI Detection, was für Unternehmen wichtig ist, weil der breite Einsatz von AI-Agents neue Risiken bei Datenzugriff, Identitäten und unkontrollierter AI-Nutzung schafft.

Security

CTI-REALM Open Source: Benchmark für AI Detection

Microsoft hat mit CTI-REALM einen Open-Source-Benchmark vorgestellt, der prüft, ob AI-Agents im Security-Betrieb tatsächlich verwertbare Detection-Regeln aus Threat-Intelligence-Berichten ableiten und validieren können. Das ist wichtig, weil Security-Teams damit KI-Modelle nicht nur nach theoretischem Cybersecurity-Wissen, sondern nach ihrem praktischen Nutzen für SOC- und Detection-Engineering-Workflows in realistischen Umgebungen wie Linux, AKS und Azure bewerten können.

Security

Zero Trust for AI: Microsoft Workshop & Architektur

Microsoft erweitert seinen Zero-Trust-Ansatz gezielt auf KI-Umgebungen und führt dafür mit „Zero Trust for AI“ eine neue Leitlinie sowie eine eigene AI-Säule im Zero Trust Workshop ein. Das ist wichtig, weil Unternehmen damit einen strukturierten Rahmen erhalten, um Risiken wie Prompt Injection, Data Poisoning und übermäßige Zugriffe auf Modelle, Prompts und Datenquellen systematisch zu bewerten und mit konkreten Sicherheitskontrollen abzusichern.