Security

AI agent-sprawl: observability, governance og Zero Trust

3 min læsning

Resumé

Microsofts seneste Cyber Pulse-rapport viser, at AI agents nu er udbredt i store virksomheder, ofte via low-code/no-code-værktøjer og i autonome arbejdsgange, mens mange organisationer mangler overblik over, hvor mange agents de har, hvem der ejer dem, og hvilke data de kan tilgå. Det er vigtigt, fordi den voksende “shadow AI”-udbredelse—herunder at 29% af medarbejdere har brugt ikke-godkendte AI agents—øger risikoen for dataeksponering, policybrud og misbrug, hvilket gør observability, governance og Zero Trust til centrale sikkerhedskrav.

Brug for hjælp med Security?Tal med en ekspert

Introduktion: hvorfor det er vigtigt nu

AI agents er ikke længere eksperimentelle—de er indlejret i daglige workflows på tværs af salg, finans, security operations og kundeservice. Microsofts seneste Cyber Pulse-rapport fremhæver et kritisk gab: mange organisationer adopterer agents hurtigere, end de kan opgøre, styre og sikre dem. For IT- og sikkerhedsteams er den umiddelbare udfordring synlighed—fordi du kan ikke beskytte (eller auditere) det, du ikke kan se.

Hvad er nyt / vigtigste pointer fra rapporten

AI agents er mainstream—og ikke kun for udviklere

  • 80%+ af Fortune 500-organisationer bruger aktive AI agents, ofte bygget med low-code/no-code-værktøjer.
  • Adoptionen spænder på tværs af brancher (især software/technology, manufacturing, financial services og retail) og globale regioner.
  • Agents kører i stigende grad i autonome tilstande, hvor de udfører handlinger med minimal menneskelig involvering—hvilket ændrer risikoprofilen sammenlignet med traditionelle apps.

Den nye blinde vinkel: “shadow AI”

Microsoft bemærker, at mange ledere ikke kan svare på basale spørgsmål:

  • Hvor mange agents findes der på tværs af virksomheden?
  • Hvem ejer dem?
  • Hvilke data og systemer har de adgang til?
  • Hvilke er godkendte vs. ikke-godkendte?

Det er ikke teoretisk. Rapporten angiver, at 29% af medarbejderne har brugt ikke-godkendte AI agents til arbejdsopgaver—hvilket introducerer nye veje til dataeksponering, brud på politikker og misbrug af nedarvede tilladelser.

Zero Trust-principper—nu anvendt på ikke-menneskelige brugere i stor skala

Rapporten understreger, at etablerede Zero Trust-principper skal anvendes konsekvent på agents:

  • Least privilege access (agents får kun det, de har brug for)
  • Explicit verification (valider identitet og kontekst for adgangsanmodninger)
  • Assume compromise (design til brud og hurtig inddæmning)

Observability kommer først: fem nødvendige capabilities

Microsoft skitserer fem kerne-capabilities til at opbygge reel observability og governance for AI agents:

  1. Registry: et centraliseret inventory/single source of truth for alle agents (inklusive third-party og shadow)
  2. Access control: identity- og policy-drevne kontroller, der konsekvent håndhæver least privilege
  3. Visualization: dashboards/telemetry til at forstå adfærd, afhængigheder og risiko
  4. Interoperability: ensartet governance på tværs af Microsoft-, open-source- og third-party-økosystemer
  5. Security: beskyttelser til tidligt at opdage misbrug, drift og kompromittering

Betydning for IT-administratorer og slutbrugere

  • Identity bliver control plane for agents: behandl agents som medarbejdere eller service accounts med styret adgang og ansvarlighed.
  • Compliance- og audit-presset stiger, især i regulerede sektorer (finance, healthcare, public sector).
  • Slutbrugere vil fortsat adoptere værktøjer, hvis godkendte muligheder ikke er tilgængelige—hvilket gør enablement plus guardrails afgørende.

Action items / næste skridt

  • Etablér straks en tilgang til agent inventory/registry (start med godkendte platforme og udvid til discovery af ikke-godkendt brug).
  • Definér ejerskab og lifecycle (oprettelse, godkendelse, change control, retirement) for agents—governance er ikke det samme som security.
  • Håndhæv least privilege for agent-identiteter (gennemgå access paths, secrets, connectors og data scope).
  • Implementér monitoring og telemetry for at opdage anomal adfærd og access drift.
  • Align et tværfunktionelt team (IT, security, legal, compliance, HR, business owners) til at behandle AI-risiko som enterprise risk.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Zero TrustAI agentsgovernanceobservabilityrisk management

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.