Security

Microsoft Cyber Pulse: AI-agentsprawl och Zero Trust

3 min läsning

Sammanfattning

Microsofts senaste Cyber Pulse visar att AI-agenter nu används brett i stora företag, ofta via low-code/no-code och i allt mer autonoma lägen, vilket kraftigt förändrar riskbilden. Det som gör detta viktigt är att många organisationer saknar överblick över vilka agenter som finns, vem som äger dem och vilka data de kan nå—samtidigt som 29 % av medarbetarna använder icke-sanktionerade AI-agenter, vilket ökar risken för dataexponering och policybrott.

Behöver du hjälp med Security?Prata med en expert

Introduktion: varför detta är viktigt nu

AI-agenter är inte längre experimentella—de är inbyggda i dagliga arbetsflöden inom försäljning, ekonomi, säkerhetsdrift och kundservice. Microsofts senaste Cyber Pulse-rapport belyser ett kritiskt gap: många organisationer inför agenter snabbare än de kan inventera, styra och säkra dem. För IT- och säkerhetsteam är den omedelbara utmaningen insyn—för du kan inte skydda (eller revidera) det du inte kan se.

Vad är nytt / viktiga slutsatser från rapporten

AI-agenter är mainstream—och inte begränsade till utvecklare

  • 80%+ av Fortune 500-organisationer använder aktiva AI-agenter, ofta byggda med low-code/no-code-verktyg.
  • Införandet spänner över branscher (särskilt mjukvara/teknik, tillverkning, finansiella tjänster och detaljhandel) och globala regioner.
  • Agenter kör i allt högre grad i autonoma lägen, där de utför åtgärder med minimal mänsklig inblandning—vilket förändrar riskprofilen jämfört med traditionella appar.

Den framväxande blinda fläcken: ”shadow AI”

Microsoft noterar att många ledare inte kan svara på grundläggande frågor:

  • Hur många agenter finns i hela organisationen?
  • Vem äger dem?
  • Vilka data och system har de åtkomst till?
  • Vilka är sanktionerade respektive icke-sanktionerade?

Det här är inte teoretiskt. Rapporten anger att 29% av medarbetarna har använt icke-sanktionerade AI-agenter för arbetsuppgifter—vilket introducerar nya vägar för dataexponering, policyöverträdelser och missbruk av ärvda behörigheter.

Zero Trust-principer—nu tillämpade på icke-mänskliga användare i stor skala

Rapporten betonar att etablerade Zero Trust-principer konsekvent ska tillämpas på agenter:

  • Least privilege access (agenter får bara det de behöver)
  • Explicit verification (validera identitet och kontext för åtkomstförfrågningar)
  • Assume compromise (designa för intrång och snabb inneslutning)

Observability kommer först: fem nödvändiga förmågor

Microsoft beskriver fem kärnförmågor för att bygga verklig observability och governance för AI-agenter:

  1. Registry: ett centraliserat inventarium/en ”source of truth” för alla agenter (inklusive tredjeparts- och shadow)
  2. Access control: identitets- och policydrivna kontroller som konsekvent upprätthåller least privilege
  3. Visualization: dashboards/telemetri för att förstå beteende, beroenden och risk
  4. Interoperability: konsekvent governance över Microsoft-, open-source- och tredjepartsekosystem
  5. Security: skydd som upptäcker missbruk, drift och kompromettering tidigt

Påverkan på IT-administratörer och slutanvändare

  • Identitet blir kontrollplanet för agenter: behandla agenter som anställda eller servicekonton med styrd åtkomst och ansvarsskyldighet.
  • Trycket från compliance och revision ökar, särskilt i reglerade sektorer (finans, sjukvård, offentlig sektor).
  • Slutanvändare kommer fortsätta ta i bruk verktyg om sanktionerade alternativ saknas—vilket gör enablement plus skyddsräcken avgörande.

Åtgärder / nästa steg

  • Etablera omedelbart en strategi för agentinventering/registry (börja med sanktionerade plattformar och bygg ut med discovery av icke-sanktionerad användning).
  • Definiera ägarskap och livscykel (skapande, godkännande, change control, avveckling) för agenter—governance är inte samma sak som security.
  • Tillämpa least privilege för agentidentiteter (granska åtkomstvägar, secrets, connectors och dataskop).
  • Implementera monitorering och telemetri för att upptäcka avvikande beteende och åtkomstd drift.
  • Samordna ett tvärfunktionellt team (IT, security, juridik, compliance, HR, verksamhetsägare) för att hantera AI-risk som enterprise risk.

Behöver du hjälp med Security?

Våra experter kan hjälpa dig att implementera och optimera dina Microsoft-lösningar.

Prata med en expert

Håll dig uppdaterad om Microsoft-teknologier

Zero TrustAI agentsgovernanceobservabilityrisk management

Relaterade inlägg

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.