Security

Copilot Studio: 10 chybných konfigurací a detekce

3 min čtení

Shrnutí

Microsoft upozorňuje na 10 nejčastějších chybných konfigurací agentů v Copilot Studio, které mohou vést k úniku dat, obcházení bezpečnostních zásad nebo zneužití přes anonymní přístup či rizikové HTTP akce. Důležité je, že pro tyto scénáře jsou nově k dispozici detekce v Microsoft Defender Advanced Hunting, takže organizace mohou tato slabá místa rychleji odhalit a snížit bezpečnostní riziko svých AI agentů.

Potřebujete pomoc s Security?Mluvte s odborníkem

Úvod: proč je to důležité

Agenti Copilot Studio se rychle stávají součástí provozních workflow – dotazují se na data, spouštějí akce a ve velkém měřítku interagují se systémy. Defender Security Research Team upozorňuje, že malé, dobře míněné volby konfigurace (široké sdílení, slabé ověřování, rizikové akce) se mohou nenápadně změnit ve vysoce dopadové body expozice. Dobrá zpráva: Microsoft Defender vám může pomoci tyto stavy včas detekovat pomocí Advanced Hunting Community Queries.

Co je nového: 10 chybných konfigurací, na které se zaměřit

Microsoft publikoval „one-page view“ nejčastějších rizik agentů Copilot Studio pozorovaných v reálných prostředích spolu s odpovídajícími detekcemi v Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → složka AI Agent).

Mezi zdůrazněná klíčová rizika patří:

  • Příliš široké sdílení (sdíleno celé organizaci nebo širokým skupinám): zvyšuje útočnou plochu a riziko nechtěného použití.
  • Bez nutnosti autentizace: z agenta se stává veřejný/anonymní vstupní bod, který může odhalit interní data nebo logiku.
  • Rizikové akce HTTP Request: použití ne-HTTPS, nestandardních portů nebo přímých volání na endpointy, které by měly být spravovány přes connectors – obcházení zásad a ochran identity.
  • Cesty k exfiltraci dat přes e-mail: agenti, kteří mohou odesílat e-mail na vstupy ovládané útočníkem nebo do externích mailboxů (obzvlášť nebezpečné při prompt injection).
  • Neaktivní agenti, akce nebo připojení: „zapomenutí“ publikovaní agenti a zastaralá připojení vytvářejí skrytý, privilegovaný přístup.
  • Autentizace autora (maker) v produkci: narušuje separation of duties a může fakticky běžet se zvýšenými oprávněními makerů.
  • Hard-coded přihlašovací údaje v topics/actions: přímé riziko úniku přihlašovacích údajů.
  • Nakonfigurované nástroje Model Context Protocol (MCP): mohou zavést nezdokumentované přístupové cesty a nechtěné interakce se systémy.
  • Generative orchestration bez instrukcí: zvyšuje pravděpodobnost odchylky chování nebo promptem vyvolaných nebezpečných akcí.
  • Orphaned agenti (bez aktivního vlastníka): slabá governance, žádný odpovědný správce a vyšší riziko zastaralé logiky.

Dopad na IT adminy a bezpečnostní týmy

Pro adminy spravující Power Platform a zabezpečení Microsoft 365 je klíčové zjištění, že security posture agentů je nyní součástí správy identity a dat (identity and data governance). Chybné konfigurace mohou vytvářet nové přístupové cesty, které tradiční inventáře aplikací, předpoklady kolem conditional access nebo zásady pro connectors nemusí plně zachytit – zejména když agenti rychle vznikají z iniciativy makerů.

Akční kroky / co dál

  1. Spusťte Community Queries v Defender’s Advanced Hunting (složka AI Agent) a vytvořte baseline zjištění napříč prostředími.
  2. Upřednostněte nápravu pro: neautentizované agenty, sdílení napříč organizací, agenty s maker-auth a jakoukoli schopnost posílat e-mail mimo organizaci.
  3. Prověřte používání HTTP Request a tam, kde je to možné, nahraďte za řízené connectors; vynucujte HTTPS a standardní porty.
  4. Ukliďte neaktivní/orphaned prostředky: vyřaďte nepoužívané agenty/akce a rotujte/odstraňte zastaralá připojení.
  5. Nastavte provozní guardrails: vyžadujte pojmenované vlastnictví, zdokumentovaný účel, připojení podle principu least privilege a povinné instrukce pro generative orchestration.

Potřebujete pomoc s Security?

Naši odborníci vám pomohou implementovat a optimalizovat vaše Microsoft řešení.

Mluvte s odborníkem

Buďte v obraze o technologiích Microsoft

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Související články

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.