Security

Promptmisbrug i AI-værktøjer: Microsofts guide

3 min læsning

Resumé

Microsofts nye vejledning fremhæver promptmisbrug som en central sikkerhedsrisiko i AI-værktøjer og giver konkrete råd til, hvordan organisationer kan overvåge, opdage og inddæmme angreb i drift. Det er vigtigt, fordi manipulation af prompts – herunder skjulte instruktioner i dokumenter, mails eller URL-fragmenter – kan få AI-systemer til at lække følsomme data eller levere vildledende output, som påvirker forretningsbeslutninger.

Brug for hjælp med Security?Tal med en ekspert

Introduktion

Efterhånden som organisationer integrerer AI-assistenter og opsummeringsværktøjer i de daglige arbejdsgange, bliver promptmisbrug et reelt operationelt sikkerhedsproblem. Microsofts seneste vejledning er vigtig for IT- og sikkerhedsteams, fordi den flytter samtalen fra planlægning og risikovurdering til live-overvågning, undersøgelse og inddæmning.

Hvad er nyt i Microsofts vejledning

Microsoft beskriver promptmisbrug som en af de vigtigste risici, AI-applikationer står over for, i tråd med OWASP-vejledning for LLM-sikkerhed. Indlægget fokuserer på, hvordan man opdager misbrug tidligt og reagerer, før det påvirker forretningsbeslutninger eller eksponerer følsomme data.

Centrale scenarier for promptmisbrug, der dækkes

  • Direkte prompt-tilsidesættelse: Forsøg på at tvinge et AI-værktøj til at ignorere systeminstruktioner eller sikkerhedskontroller.
  • Ekstraktivt promptmisbrug: Prompts, der er designet til at hente følsomme eller private data ud over de tilsigtede grænser for opsummering.
  • Indirekte prompt injection: Skjulte instruktioner indlejret i eksternt indhold såsom dokumenter, mails, websider eller URL-fragmenter, som påvirker AI-output.

Et bemærkelsesværdigt eksempel i artiklen er en AI-opsummerer, der inkluderer hele URL'en i sin promptkontekst. Hvis en ondsindet instruktion er skjult efter #-fragmentet i et link, kan AI'en fortolke den tekst som en del af prompten og generere et skævt eller vildledende output, selv om brugeren ikke gjorde noget, der åbenlyst var usikkert.

Fremhævede Microsoft-sikkerhedskontroller

Microsoft knytter denne playbook for detektion og respons til flere eksisterende værktøjer:

  • Defender for Cloud Apps til at opdage og blokere ikke-godkendte AI-applikationer
  • Microsoft Purview DSPM og DLP til at identificere risici for eksponering af følsomme data og logge interaktioner
  • CloudAppEvents-telemetri til at synliggøre mistænkelig AI-relateret aktivitet
  • Entra ID Conditional Access til at begrænse, hvilke brugere, enheder og apps der kan få adgang til interne ressourcer
  • AI-sikkerhedsforanstaltninger og input-sanitization til at fjerne skjulte instruktioner og håndhæve modelgrænser

Hvorfor dette er vigtigt for IT-administratorer

For administratorer er den vigtigste pointe, at traditionel sikkerhedssynlighed måske ikke er nok til AI-aktiverede arbejdsgange. Promptmisbrug efterlader ofte få åbenlyse spor, fordi det bygger på manipulation af naturligt sprog snarere end malware eller exploit-kode.

Det betyder, at teams har brug for:

  • Bedre logning af AI-interaktioner
  • Synlighed i godkendte versus ikke-godkendte AI-værktøjer
  • Politikker, der begrænser AI-adgang til følsomt indhold
  • Brugeruddannelse om mistænkelige links, dokumenter og AI-genereret output

Anbefalede næste skridt

IT- og sikkerhedsteams bør gennemgå de AI-applikationer, der allerede er i brug, især tredjepartsværktøjer eller ikke-godkendte værktøjer. Microsofts vejledning foreslår at kombinere governance, telemetri, DLP, Conditional Access og sikkerhedsforanstaltninger, så promptmisbrug hurtigt kan opdages og inddæmmes, før det påvirker forretningsprocesser eller håndteringen af følsomme data.

Kort sagt er dette en påmindelse om, at sikring af AI ikke længere kun handler om trusselsmodellering i designfasen; det kræver nu operationel overvågning og disciplineret incident response.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

SecurityAI securityprompt injectionMicrosoft PurviewDefender for Cloud Apps

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.