Security

AI agenti: observability, governance a Zero Trust

3 min čtení

Shrnutí

Zpráva Microsoft Cyber Pulse upozorňuje, že AI agenti se rychle stali běžnou součástí firemních workflow, ale mnoho organizací je zavádí rychleji, než je dokáže evidovat, řídit a zabezpečit. To je zásadní problém, protože bez observability, governance a principů Zero Trust vzniká „shadow AI“ – už 29 % zaměstnanců používá neschválené agenty, což zvyšuje riziko úniku dat, zneužití oprávnění i porušení bezpečnostních politik.

Potřebujete pomoc s Security?Mluvte s odborníkem

Úvod: proč je to důležité právě teď

AI agenti už nejsou experiment — jsou začlenění do každodenních workflow v oblasti prodeje, financí, bezpečnostních operací i zákaznické podpory. Nejnovější zpráva Microsoft Cyber Pulse upozorňuje na kritickou mezeru: řada organizací zavádí agenty rychleji, než je dokáže inventarizovat, řídit (govern) a zabezpečit. Pro IT a security týmy je okamžitou výzvou viditelnost — protože nemůžete chránit (ani auditovat) to, co nevidíte.

Co je nového / klíčová zjištění ze zprávy

AI agenti jsou mainstream — a nejsou omezení jen na vývojáře

  • 80 %+ organizací z Fortune 500 používá aktivní AI agenty, často vytvořené pomocí nástrojů low-code/no-code.
  • Adopce napříč odvětvími (zejména software/technology, manufacturing, financial services a retail) i globálními regiony.
  • Agenti stále častěji běží v autonomous modes a provádějí akce s minimálním zapojením člověka — čímž se oproti tradičním aplikacím mění rizikový profil.

Vznikající slepé místo: „shadow AI“

Microsoft uvádí, že mnoho lídrů nedokáže odpovědět ani na základní otázky:

  • Kolik agentů v rámci organizace existuje?
  • Kdo je vlastní?
  • K jakým datům a systémům mají přístup?
  • Kteří jsou schválení vs. neschválení?

Nejde jen o teorii. Zpráva uvádí, že 29 % zaměstnanců použilo pro pracovní úkoly neschválené AI agenty — čímž vznikají nové cesty pro únik dat, porušení politik a zneužití zděděných oprávnění.

Principy Zero Trust — nyní aplikované na ne-lidské uživatele ve velkém měřítku

Zpráva zdůrazňuje potřebu konzistentně aplikovat zavedené principy Zero Trust i na agenty:

  • Least privilege access (agenti dostanou jen to, co skutečně potřebují)
  • Explicit verification (ověřovat identitu i kontext u požadavků na přístup)
  • Assume compromise (navrhovat s předpokladem narušení a rychlé izolace)

Nejprve observability: pět nezbytných schopností

Microsoft vymezuje pět klíčových schopností pro skutečnou observability a governance AI agentů:

  1. Registry: centralizovaná inventura/zdroj pravdy pro všechny agenty (včetně third-party a shadow)
  2. Access control: řízení založené na identitě a politikách, konzistentně vynucující least privilege
  3. Visualization: dashboardy/telemetrie pro pochopení chování, závislostí a rizik
  4. Interoperability: konzistentní governance napříč ekosystémy Microsoft, open-source a third-party
  5. Security: ochrany pro včasnou detekci zneužití, driftu a kompromitace

Dopad na IT administrátory a koncové uživatele

  • Identity se stává řídicí rovinou (control plane) pro agenty: zacházejte s agenty jako se zaměstnanci nebo service accounts — s řízeným přístupem a odpovědností.
  • Roste tlak na compliance a audit, zejména v regulovaných odvětvích (finance, zdravotnictví, veřejný sektor).
  • Koncoví uživatelé budou nástroje dál zavádět, pokud nebudou k dispozici schválené alternativy — proto jsou enablement plus guardrails nezbytné.

Doporučené kroky / co dál

  • Okamžitě zaveďte přístup k inventarizaci/registry agentů (začněte u schválených platforem a rozšiřujte o zjišťování neschváleného používání).
  • Definujte ownership a lifecycle (vytvoření, schválení, change control, vyřazení) pro agenty — governance není totéž co security.
  • Vynucujte least privilege pro identity agentů (revidujte přístupové cesty, secrets, connectory a rozsah dat).
  • Implementujte monitoring a telemetrii pro detekci anomálního chování a driftu přístupů.
  • Slaďte cross-functional tým (IT, security, legal, compliance, HR, business owners), aby AI riziko vnímal jako enterprise risk.

Potřebujete pomoc s Security?

Naši odborníci vám pomohou implementovat a optimalizovat vaše Microsoft řešení.

Mluvte s odborníkem

Buďte v obraze o technologiích Microsoft

Zero TrustAI agentsgovernanceobservabilityrisk management

Související články

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.