Security

Copilot Studio: 10 chyb konfigurace agentů a ochrana

3 min čtení

Shrnutí

Microsoft upozorňuje na 10 nejčastějších chyb v konfiguraci agentů Copilot Studio, které mohou vést k neúmyslnému sdílení, obcházení governance, exfiltraci dat nebo zneužití nadměrných oprávnění. Součástí oznámení jsou i konkrétní dotazy pro Microsoft Defender Advanced Hunting, takže organizace mohou tato rizika aktivně vyhledávat a posílit ochranu dříve, než dojde k incidentu.

Potřebujete pomoc s Security?Mluvte s odborníkem

Úvod: proč na tom záleží

Agenti Copilot Studio se rychle stávají součástí provozních workflow—načítají data, spouštějí akce a ve velkém měřítku komunikují s interními systémy. Stejná automatizace ale vytváří i nové cesty útoku, když jsou agenti sdíleni nevhodně, běží s nadměrnými oprávněními nebo obcházejí standardní governance kontroly. Tým Microsoft Defender Security Research tyto problémy pozoruje „v reálném prostředí“, často bez zjevných alertů, což činí proaktivní vyhledávání a řízení bezpečnostního stavu zásadním.

Co je nového: 10 běžných rizik agentů Copilot Studio (a jak je detekovat)

Microsoft zveřejnil praktický top-10 seznam chyb konfigurace agentů a každou namapoval na Microsoft Defender Advanced Hunting Community Queries (Security portal → Advanced huntingQueriesCommunity queries → složka AI Agent). Mezi klíčová rizika patří:

  1. Příliš široké sdílení (celá organizace nebo velké skupiny) – rozšiřuje attack surface a umožňuje neúmyslné použití.
  2. Bez požadavku na autentizaci – vytváří veřejné/anonymní vstupní body a potenciální únik dat.
  3. Rizikové akce HTTP Request – volání na connector endpoints, použití non-HTTPS nebo nestandardních portů může obejít governance a identity kontroly konektorů.
  4. Cesty exfiltrace dat přes email – agenti, kteří posílají email na hodnoty řízené AI nebo do externích schránek, mohou umožnit exfiltraci řízenou prompt injection.
  5. Neaktivní (dormant) agenti/akce/connection – zastaralé komponenty se stávají skrytým attack surface s přetrvávajícími oprávněními.
  6. Autentizace autora (maker) – oslabuje separation of duties a může umožnit privilege escalation.
  7. Hard-coded přihlašovací údaje v topics/akcích – zvyšuje pravděpodobnost úniku a znovupoužití přihlašovacích údajů.
  8. Nakonfigurované nástroje Model Context Protocol (MCP) – mohou zavést nedokumentované přístupové cesty a nechtěné interakce se systémy.
  9. Generative orchestration bez instrukcí – vyšší riziko odchylky chování a zneužití promptů.
  10. Orphaned agenti (bez aktivního vlastníka) – slabá governance a v čase neřízený přístup.

Dopad na IT administrátory a bezpečnostní týmy

  • Mezera ve viditelnosti: Tyto chyby konfigurace často při vytváření nepůsobí škodlivě a nemusí spustit tradiční alerty.
  • Riziko pro identitu a data: Neautentizovaný přístup, maker přihlašovací údaje a široké sdílení mohou z agenta udělat snadný pivot k organizačním datům.
  • Obcházení governance: Přímé HTTP akce mohou obejít ochrany Power Platform connectorů (validace, throttling, vynucení identity).
  • Provozní riziko: Orphaned nebo dormant agenti uchovávají business logiku i přístup dlouho poté, co je nejasné vlastnictví a původní záměr.

Doporučené kroky / co dělat dál

  1. Spusťte AI Agent Community Queries hned a vytvořte baseline výsledků (začněte: sdílení na úrovni celé organizace, no-auth agenti, author authentication, hard-coded credentials).
  2. Zpřísněte sdílení a autentizaci: prosazujte least privilege a vyžadujte autentizaci u všech produkčních agentů.
  3. Zkontrolujte používání HTTP Request: preferujte řízené connectory; non-HTTPS a nestandardní porty označte k okamžité nápravě.
  4. Ovládejte scénáře odchozích emailů: omezte externí příjemce, validujte dynamické vstupy a monitorujte vzorce ve stylu prompt injection.
  5. Zaveďte governance životního cyklu: inventarizujte agenty, odeberte nebo znovu přiřaďte vlastníka orphaned agentům a vyřaďte dormant connections/akce.

Pokud budete konfiguraci agentů vnímat jako součást svého security posture—a budete tyto vzorce průběžně vyhledávat—můžete snížit expozici dříve, než je útočníci začnou operativně zneužívat.

Potřebujete pomoc s Security?

Naši odborníci vám pomohou implementovat a optimalizovat vaše Microsoft řešení.

Mluvte s odborníkem

Buďte v obraze o technologiích Microsoft

Copilot StudioMicrosoft DefenderAdvanced HuntingAI securityPower Platform governance

Související články

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.