Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

3 min læsning

Resumé

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.

Brug for hjælp med Security?Tal med en ekspert

Introduktion

Efterhånden som virksomheder accelererer deres AI-anvendelse, bliver sikkerhedsteams bedt om at beskytte nye tillidsgrænser, der involverer modeller, agenter, datakilder og automatiserede beslutninger. Microsofts nye vejledning om Zero Trust for AI (ZT4AI) er vigtig, fordi den giver IT- og sikkerhedsledere en mere struktureret måde at vurdere, designe og operationalisere AI-sikkerhed ved hjælp af velkendte Zero Trust-principper.

Hvad er nyt

Zero Trust-principper anvendt på AI

Microsoft udvider den standardiserede Zero Trust-tilgang til AI-miljøer med tre kerneprincipper:

  • Verify explicitly: Validér løbende identiteten og adfærden for brugere, workloads og AI-agenter.
  • Apply least privilege: Begræns adgang til prompts, modeller, plugins og datakilder til kun det nødvendige.
  • Assume breach: Design med robusthed over for prompt injection, data poisoning og lateral movement.

Ny AI-søjle i Zero Trust Workshop

Den opdaterede Zero Trust Workshop indeholder nu en dedikeret AI-søjle. Microsoft oplyser, at workshoppen nu omfatter:

  • 700 sikkerhedskontroller
  • 116 logiske grupper
  • 33 funktionelle swim lanes

Workshoppen er beregnet til at hjælpe teams med at tilpasse sikkerhed, IT og forretningsinteressenter, vurdere AI-specifikke risici og mappe kontroller på tværs af Microsofts sikkerhedsprodukter og processer.

Udvidet Zero Trust Assessment

Microsoft har også opdateret værktøjet Zero Trust Assessment med nye søjler for Data og Network sammen med den eksisterende dækning af Identity og Devices. Dette er især relevant for AI-udrulninger, hvor:

  • Følsomme data skal klassificeres, mærkes og styres
  • Forebyggelse af datatab bliver mere kritisk
  • Netværkskontroller kan hjælpe med at inspicere agentadfærd og reducere uautoriseret eksponering

Microsoft bekræftede også, at en AI-specifik vurderingssøjle er under udvikling og forventes i sommeren 2026.

Ny referencearkitektur og mønstre

En ny Zero Trust for AI reference architecture giver en fælles model for anvendelse af politikstyrede adgangskontroller, kontinuerlig validering, overvågning og styring på tværs af AI-systemer. Microsoft har også offentliggjort praktiske mønstre og praksisser for områder som:

  • Threat modeling for AI
  • AI observability til logning, sporbarhed og overvågning

Betydning for IT-administratorer og sikkerhedsteams

For administratorer giver denne annoncering en tydeligere vej fra strategi til implementering. Teams med ansvar for Microsoft Security, datastyring, netværk og identitet kan bruge disse opdateringer til bedre at vurdere AI-risici, især omkring agenter med for brede rettigheder, prompt injection og utilsigtet dataeksponering.

Organisationer, der udruller Copilots, tilpassede AI-apps eller autonome agenter, bør se dette som et signal om, at AI-sikkerhed har brug for den samme strukturerede styring, som allerede anvendes til identitet, endpoint- og cloud-sikkerhed.

Næste skridt

  • Gennemgå den opdaterede Zero Trust Workshop og identificér, hvor AI-specifikke kontroller gælder i dit miljø.
  • Brug den forbedrede Zero Trust Assessment til at etablere et udgangspunkt for kontroller inden for Identity, Devices, Data og Network.
  • Sammenhold dine AI-udrulninger med den nye reference architecture.
  • Prioritér governance for agentidentitet, dataadgang, logning og forsvar mod prompt injection.
  • Planlæg for den kommende AI pillar in Zero Trust Assessment senere i 2026.

Microsofts budskab er klart: AI-sikkerhed bør ikke behandles som en separat disciplin, men som en naturlig forlængelse af Zero Trust.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Zero TrustAI securityMicrosoft Securitydata governancenetwork security

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Microsoft advarer om phishing i skattesæsonen

Microsoft advarer om en bølge af skatte-relaterede phishing- og malwarekampagner, der udnytter emner som W-2, 1099, refusioner og kontakt med revisorer til at stjæle legitimationsoplysninger og omgå 2FA. Det er vigtigt, fordi angrebene i stigende grad er målrettede og bruger teknikker som QR-koder, flertrins-omdirigeringer, cloud-hostede filer og legitime administrationsværktøjer, hvilket gør dem sværere at opdage med traditionelle sikkerhedskontroller.