Security

Microsoft Cyber Pulse: AI-agenter krever Zero Trust

3 min lesing

Sammendrag

Microsofts nye Cyber Pulse-rapport viser at AI-agenter nå er utbredt i næringslivet, men at mange virksomheter mangler oversikt over hvor mange agenter de har, hvem som eier dem og hvilke data de kan nå. Det gjør Zero Trust, sterkere styring og bedre synlighet viktig nå, særlig fordi 29 % av ansatte har brukt ikke-godkjente AI-agenter til arbeidsoppgaver og dermed øker risikoen for datalekkasjer og policybrudd.

Trenger du hjelp med Security?Snakk med en ekspert

Introduksjon: hvorfor dette betyr noe nå

AI-agenter er ikke lenger eksperimentelle—de er innebygd i daglige arbeidsflyter på tvers av salg, finans, security operations og kundeservice. Microsofts nyeste Cyber Pulse-rapport fremhever et kritisk gap: mange organisasjoner tar i bruk agenter raskere enn de kan inventarisere, styre og sikre dem. For IT- og sikkerhetsteam er den umiddelbare utfordringen synlighet—fordi du ikke kan beskytte (eller revidere) det du ikke kan se.

Hva er nytt / viktige funn fra rapporten

AI-agenter er mainstream—og ikke begrenset til utviklere

  • 80 %+ av Fortune 500-organisasjoner bruker aktive AI-agenter, ofte bygget med low-code/no-code-verktøy.
  • Adopsjon spenner over bransjer (særlig programvare/teknologi, produksjon, finansielle tjenester og detaljhandel) og globale regioner.
  • Agenter kjører i økende grad i autonome moduser, og utfører handlinger med minimal menneskelig involvering—noe som endrer risikoprofilen sammenlignet med tradisjonelle apper.

Den fremvoksende blindsone: “shadow AI”

Microsoft påpeker at mange ledere ikke kan svare på grunnleggende spørsmål:

  • Hvor mange agenter finnes på tvers av virksomheten?
  • Hvem eier dem?
  • Hvilke data og systemer har de tilgang til?
  • Hvilke er godkjente vs. ikke-godkjente?

Dette er ikke teoretisk. Rapporten viser til at 29 % av ansatte har brukt ikke-godkjente AI-agenter til arbeidsoppgaver—noe som introduserer nye veier for dataeksponering, policybrudd og misbruk av arvede tillatelser.

Zero Trust-prinsipper—nå anvendt på ikke-menneskelige brukere i stor skala

Rapporten understreker å anvende etablerte Zero Trust-prinsipper konsekvent på agenter:

  • Least privilege access (agenter får kun det de trenger)
  • Explicit verification (valider identitet og kontekst for tilgangsforespørsler)
  • Assume compromise (design for innbrudd og rask inneslutning)

Observability kommer først: fem nødvendige kapabiliteter

Microsoft skisserer fem kjernekapabiliteter for å bygge reell observability og governance for AI-agenter:

  1. Registry: en sentralisert inventarliste/single source of truth for alle agenter (inkludert tredjepart og shadow)
  2. Access control: identitets- og policydrevne kontroller som konsekvent håndhever least privilege
  3. Visualization: dashboards/telemetri for å forstå atferd, avhengigheter og risiko
  4. Interoperability: konsistent governance på tvers av Microsoft-, open-source- og tredjepartsøkosystemer
  5. Security: beskyttelse for å oppdage misbruk, drift og kompromittering tidlig

Konsekvenser for IT-administratorer og sluttbrukere

  • Identity blir kontrollplanet for agenter: behandle agenter som ansatte eller service accounts med styrt tilgang og ansvarliggjøring.
  • Compliance- og revisjonspresset øker, særlig i regulerte sektorer (finans, helse, offentlig sektor).
  • Sluttbrukere vil fortsette å ta i bruk verktøy hvis godkjente alternativer ikke er tilgjengelige—noe som gjør tilrettelegging kombinert med guardrails helt avgjørende.

Tiltak / neste steg

  • Etabler en tilnærming for agent inventory/registry umiddelbart (start med godkjente plattformer og utvid til oppdagelse av ikke-godkjent bruk).
  • Definer eierskap og lifecycle (opprettelse, godkjenning, change control, avvikling) for agenter—governance er ikke det samme som security.
  • Håndhev least privilege for agentidentiteter (gjennomgå tilgangsstier, secrets, connectors og dataskop).
  • Implementer monitoring og telemetri for å oppdage avvikende atferd og access drift.
  • Samordne et tverrfaglig team (IT, security, juridisk, compliance, HR, forretningseiere) for å håndtere AI-risiko som enterprise risk.

Trenger du hjelp med Security?

Våre eksperter kan hjelpe deg med å implementere og optimalisere dine Microsoft-løsninger.

Snakk med en ekspert

Hold deg oppdatert om Microsoft-teknologier

Zero TrustAI agentsgovernanceobservabilityrisk management

Relaterte innlegg

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.