Security

Microsoft AI observability som sikkerhedskrav

3 min læsning

Resumé

Microsofts nye sikkerhedsvejledning gør AI observability til et centralt krav i virksomheders Secure Development Lifecycle, fordi traditionelle målinger som oppetid, latens og fejlrater ikke afslører, når AI-systemer påvirkes af forgiftet indhold eller udfører uautoriserede handlinger. Det er vigtigt, fordi generative AI- og agent-systemer i stigende grad håndterer følsomme data og forretningskritiske processer, hvilket kræver overvågning af AI-specifikke signaler som kontekstsammensætning, kildeproveniens og tillidsniveauer.

Brug for hjælp med Security?Tal med en ekspert

Introduktion

Efterhånden som generative AI og agentic AI bevæger sig fra pilotprojekter til produktion, bliver de en del af centrale forretningsworkflows, ofte med adgang til følsomme data, eksterne værktøjer og automatiserede handlinger. Microsofts nyeste sikkerhedsvejledning gør det klart, at traditionel overvågning af oppetid og ydeevne ikke længere er tilstrækkelig for disse systemer.

Hvad er nyt

Microsoft udvider samtalen om sikker AI-udvikling ved at positionere AI observability som et centralt krav i virksomhedens Secure Development Lifecycle (SDL).

Hvorfor traditionel overvågning ikke slår til

Konventionel observability fokuserer på deterministiske applikationssignaler såsom:

  • Tilgængelighed
  • Latens
  • Gennemstrømning
  • Fejlrater

For AI-systemer kan disse signaler forblive sunde, selv når systemet er kompromitteret. Microsoft fremhæver scenarier, hvor en AI-agent forbruger forgiftet eller ondsindet eksternt indhold, videresender det mellem agenter og udløser uautoriserede handlinger uden at generere konventionelle fejl.

Hvad AI observability bør omfatte

Microsoft siger, at AI observability skal udvikle sig ud over standardlogs, metrics og traces for at indfange AI-native signaler, herunder:

  • Kontekstsammensætning: Hvilke instruktioner, hvilket hentet indhold, hvilken samtalehistorik og hvilke værktøjsoutput der blev brugt til en given kørsel
  • Kildeproveniens og tillidsklassificering: Hvor indholdet kom fra, og om det bør betragtes som troværdigt
  • Logging af prompts og svar: Kritisk for at identificere prompt injection, multi-turn jailbreaks og ændringer i modeladfærd
  • Korrelation på agentens livscyklusniveau: En stabil identifikator på tværs af multi-turn-samtaler og agentinteraktioner
  • AI-specifikke metrics: Tokenforbrug, retrieval-volumen, agentomgange og adfærdsændringer efter modelopdateringer
  • End-to-end traces: Synlighed fra den oprindelige prompt til brug af værktøjer og endeligt output

To ekstra søjler: evaluering og governance

Microsoft udvider også observability med:

  • Evaluering: Måling af outputkvalitet, grounding, instruktionsoverensstemmelse og korrekt brug af værktøjer
  • Governance: Brug af telemetri og kontroller til at understøtte håndhævelse af politikker, auditabilitet og ansvarlighed

Hvorfor dette er vigtigt for IT- og sikkerhedsteams

For administratorer, sikkerhedsteams og ejere af AI-platforme understreger vejledningen, at AI-systemer har brug for sikkerhedskontroller, der er tilpasset probabilistisk og flertrinsadfærd. Uden mere detaljeret telemetri kan teams få svært ved at opdage prompt injection, spore veje for dataeksfiltrering, validere overholdelse af politikker eller forklare, hvorfor en agent opførte sig uventet.

Dette er især relevant for organisationer, der implementerer copilots, brugerdefinerede AI-agenter, retrieval-augmented generation-apps eller autonome workflows, der er forbundet til Microsoft 365, forretningsdata eller eksterne API’er.

Anbefalede næste skridt

Organisationer bør gennemgå deres nuværende praksis for AI-overvågning og vurdere, om de indfanger tilstrækkelig detaljeringsgrad til at undersøge AI-specifikke risici.

Vigtige handlinger omfatter:

  • Lav en oversigt over AI-apps, copilots og agenter i produktion
  • Aktivér logging for prompts, svar, tool calls og hentet indhold, hvor det er relevant
  • Bevar tracing på samtaleniveau på tværs af multi-turn- og multi-agent-workflows
  • Tilføj evalueringsprocesser for grounding, kvalitet og politikoverensstemmelse
  • Afstem AI observability med governance-, audit- og incident response-processer

Microsofts budskab er ligetil: Hvis AI bliver en del af produktionsinfrastrukturen, skal observability være en del af sikkerhedsgrundlinjen.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

SecurityAI observabilityGenerative AIagentic AIgovernance

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.