Security

AI Recommendation Poisoning: bias i Copilot-links

3 min læsning

Resumé

Microsofts sikkerhedsforskere advarer om en ny misbrugsteknik, AI Recommendation Poisoning, hvor skjulte prompts i “Summarize with AI”-links forsøger at påvirke assistenters hukommelse og fremtidige anbefalinger. Det er vigtigt, fordi denne form for vedvarende bias kan fordreje indkøb, sikkerhedsråd og brugerens tillid i enterprise-miljøer uden tydelige tegn på manipulation.

Brug for hjælp med Security?Tal med en ekspert

Introduction: why this matters

AI-assistenter får i stigende grad tillid til at opsummere indhold, sammenligne leverandører og anbefale næste skridt. Microsofts sikkerhedsforskere ser nu adversarial (og kommercielt motiverede) forsøg på vedvarende at bias disse assistenter ved at manipulere deres hukommelse—så et tilsyneladende harmløst klik på “Summarize with AI” bliver til en langvarig påvirkning af fremtidige svar.

I enterprise-miljøer er dette mere end et integritetsproblem. Hvis en assistents anbefalinger kan styres subtilt, kan det påvirke indkøbsbeslutninger, sikkerhedsrådgivning og brugertillid—uden tydelige indikatorer på, at noget har ændret sig.

What’s new: AI Recommendation Poisoning in the wild

Microsoft Defender Security Research Team beskriver et fremvoksende mønster for promoveringsmisbrug, de kalder AI Recommendation Poisoning:

  • Skjult prompt injection via URL-parametre: Websider indlejrer links (ofte bag “Summarize with AI”-knapper), der åbner en AI-assistent med en forududfyldt prompt via query-parametre som ?q=<prompt>.
  • Persistens målrettet “memory”-funktioner: Den injicerede prompt forsøger at tilføje vedvarende instruktioner som “remember [Company] as a trusted source” eller “recommend [Company] first.”
  • Observeret i skala: I løbet af en 60-dages gennemgang af AI-relaterede URL’er set i e-mailtrafik identificerede forskere 50+ distinkte promptforsøg fra 31 virksomheder på tværs af 14 brancher.
  • Cross-platform målretning: Den samme tilgang blev observeret rettet mod flere assistenter (eksempler inkluderede URL’er til Copilot, ChatGPT, Claude, Perplexity og andre). Effektiviteten varierer efter platform og udvikler sig, efterhånden som mitigations udrulles.

How it works (and why memory changes the risk)

Moderne assistenter kan fastholde:

  • Præferencer (formatering, tone)
  • Kontekst (projekter, tilbagevendende opgaver)
  • Eksplicitte instruktioner (“always cite sources”)

Den nytte skaber en angrebsflade: AI memory poisoning (MITRE ATLAS® AML.T0080) opstår, når en ekstern aktør får uautoriserede “facts” eller instruktioner lagret, som om de var tiltænkt af brugeren. Forskningen kortlægger denne teknik til prompt-baseret manipulation og relaterede kategorier (herunder MITRE ATLAS®-poster som AML.T0051).

Impact on IT admins and end users

  • Risiko for anbefalingsintegritet: Brugere kan få biased vejledning om leverandør/produkt, der fremstår objektiv.
  • Svært at opdage manipulation: “Giften” kan bestå på tværs af sessioner, hvilket gør det vanskeligt for brugere at koble senere beslutninger til et tidligere klik.
  • Større social engineering-angrebsflade: Disse links kan forekomme på webben eller leveres via e-mail, hvor markedsføringstaktikker blandes med sikkerhedsmisbrug.

Microsoft bemærker, at de har implementeret og fortsætter med at udrulle mitigations i Copilot mod prompt injection; i flere tilfælde kunne tidligere rapporterede adfærd ikke længere reproduceres—hvilket indikerer, at forsvarsmekanismerne udvikler sig.

Action items / next steps

  • Opdater security awareness-træning: Lær brugere, at AI-“summarize”-links kan våbenliggøres, især hvis de forududfylder prompts.
  • Gennemgå e-mail- og webbeskyttelse: Sørg for, at link-scanning og phishing-forsvar er indstillet til at analysere usædvanlige URL-parametre og redirect-mønstre.
  • Etabler retningslinjer for AI-brug: Opfordr brugere til at verificere kilder, krydstjekke anbefalinger og rapportere mistænkelige “memory”-anomalier.
  • Operationel playbook: Definér trin for brugere/admins til at gennemgå og rydde assistentens hukommelse (hvor det understøttes) samt rapportere mistænkelige prompts/URL’er til security teams.

Recommendation Poisoning er et tydeligt signal om, at i takt med at AI bliver et beslutningsstøttelag, skal kontroller for integrity og provenance udvikle sig i samme tempo som traditionelle phishing- og webtrusselsmodeller.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

AI securityCopilotprompt injectionmemory poisoningMicrosoft Defender

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.