Security

AI-agentstyring: Afstemning af intention for sikkerhed

3 min læsning

Resumé

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Brug for hjælp med Security?Tal med en ekspert

AI-agenter bevæger sig ud over simple chatinteraktioner og udfører i stigende grad handlinger på tværs af forretningssystemer. Efterhånden som organisationer tager disse værktøjer i brug, bliver styring afgørende: Agenter skal ikke kun løse opgaver korrekt, men også holde sig inden for tekniske, forretningsmæssige og compliance-mæssige rammer.

Hvad Microsoft fremhæver

Microsoft Security beskriver en firelagsmodel til styring af AI-agenters adfærd:

  • Brugerintention: Hvad brugeren beder agenten om at gøre.
  • Udviklerintention: Hvad agenten er designet og teknisk tilladt til at gøre.
  • Rollebaseret intention: Den forretningsfunktion og myndighed, der er tildelt agenten.
  • Organisatorisk intention: Virksomhedspolitikker, regulatoriske krav og sikkerhedskontroller.

Hovedbudskabet er, at troværdig AI kræver afstemning på tværs af alle fire lag, ikke kun præcise svar på prompts.

Hvorfor afstemning af intention betyder noget

Ifølge Microsoft er korrekt afstemte agenter bedre i stand til at:

  • Levere resultater af højere kvalitet og større relevans
  • Holde sig inden for deres tilsigtede operationelle område
  • Håndhæve sikkerheds- og compliance-krav
  • Reducere risikoen for misbrug, overskridelse af beføjelser eller uautoriserede handlinger

Indlægget skelner også mellem vigtige styringsbegreber. En udvikler kan for eksempel bygge en email triage-agent til at sortere og prioritere beskeder, men det betyder ikke, at agenten bør svare på emails, slette beskeder eller få adgang til eksterne systemer uden udtrykkelig godkendelse.

Tilsvarende kan en rollebaseret agent som en compliance-gennemgår have tilladelse til at scanne efter HIPAA-problemer og generere rapporter, men ikke handle uden for den specifikke jobbeskrivelse.

Prioriteringsmodel ved konflikter

Microsoft anbefaler et klart hierarki, når intentionslag er i konflikt:

  1. Organisatorisk intention
  2. Rollebaseret intention
  3. Udviklerintention
  4. Brugerintention

Det betyder, at brugerforespørgsler kun bør efterkommes, når de holder sig inden for organisatoriske politikker, den tildelte forretningsrolle og de tekniske designbegrænsninger.

Betydning for IT- og sikkerhedsteams

For IT-administratorer, sikkerhedsledere og governance-teams understreger denne vejledning behovet for at behandle AI-agenter som styrede digitale medarbejdere frem for generelle assistenter. Planlægning af implementering bør omfatte:

  • Klare rolledefinitioner for hver agent
  • Tekniske værn og godkendte integrationer
  • Grænser for dataadgang
  • Compliance-mapping for regler som GDPR eller HIPAA
  • Eskaleringsveje for handlinger, der kræver menneskelig godkendelse

Næste skridt

Organisationer, der evaluerer eller implementerer AI-agenter, bør gennemgå eksisterende styringsmodeller og opdatere dem, så de tager højde for afstemning af intention. Sikkerheds- og compliance-teams bør samarbejde med udviklere og forretningsejere om at definere agentens omfang, beføjelser og politikgrænser før en bred produktionsudrulning.

Efterhånden som AI-agenter bliver mere autonome, giver denne lagdelte intentionsmodel et praktisk fundament for mere sikker virksomhedsadoption.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

AI agentsMicrosoft Securitygovernancecomplianceenterprise security

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.

Security

Microsoft advarer om phishing i skattesæsonen

Microsoft advarer om en bølge af skatte-relaterede phishing- og malwarekampagner, der udnytter emner som W-2, 1099, refusioner og kontakt med revisorer til at stjæle legitimationsoplysninger og omgå 2FA. Det er vigtigt, fordi angrebene i stigende grad er målrettede og bruger teknikker som QR-koder, flertrins-omdirigeringer, cloud-hostede filer og legitime administrationsværktøjer, hvilket gør dem sværere at opdage med traditionelle sikkerhedskontroller.