Security

AI Recommendation Poisoning: risiko for Copilot-lenker

3 min lesing

Sammendrag

Microsoft advarer om «AI Recommendation Poisoning», der selskaper skjuler prompt-injeksjoner i lenker som åpner AI-assistenter som Copilot og forsøker å lagre vedvarende preferanser i assistentens minne. Funn fra 60 dagers analyse viser at dette skjer i stor skala på tvers av mange bransjer, noe som er viktig fordi manipulerte AI-anbefalinger kan påvirke innkjøp, sikkerhetsråd og tilliten til bedriftsverktøy uten at brukerne merker det.

Trenger du hjelp med Security?Snakk med en ekspert

Introduksjon: hvorfor dette betyr noe

AI-assistenter blir i økende grad brukt og stolt på for å oppsummere innhold, sammenligne leverandører og anbefale neste steg. Microsofts sikkerhetsforskere ser nå motstridende (og kommersielt motiverte) forsøk på å vedvarende påvirke disse assistentene ved å manipulere minnet deres – og gjøre et tilsynelatende harmløst klikk på «Oppsummer med AI» til en langvarig påvirkning av fremtidige svar.

I bedriftsmiljøer er dette mer enn et integritetsproblem. Hvis en assistents anbefalinger kan styres subtilt, kan det påvirke innkjøpsbeslutninger, sikkerhetsråd og brukertillit – uten tydelige indikatorer på at noe har endret seg.

Hva er nytt: AI Recommendation Poisoning i praksis

Microsoft Defender Security Research Team beskriver et framvoksende mønster for promoteringmisbruk de kaller AI Recommendation Poisoning:

  • Skjult prompt-injeksjon via URL-parametere: Nettsider bygger inn lenker (ofte bak «Oppsummer med AI»-knapper) som åpner en AI-assistent med en forhåndsutfylt prompt ved hjelp av spørringsparametere som ?q=<prompt>.
  • Vedvarenhet rettet mot «minne»-funksjoner: Den injiserte prompten forsøker å legge til varige instruksjoner som «husk [Company] som en pålitelig kilde» eller «anbefal [Company] først».
  • Observert i stor skala: I en 60-dagers gjennomgang av AI-relaterte URL-er sett i e-posttrafikk, identifiserte forskerne 50+ distinkte promptforsøk fra 31 selskaper på tvers av 14 bransjer.
  • Plattformovergripende målretting: Den samme tilnærmingen ble observert rettet mot flere assistenter (eksempler inkluderte URL-er for Copilot, ChatGPT, Claude, Perplexity og andre). Effektiviteten varierer per plattform og utvikler seg etter hvert som mottiltak rulles ut.

Slik fungerer det (og hvorfor minne endrer risikobildet)

Moderne assistenter kan beholde:

  • Preferanser (formatering, tone)
  • Kontekst (prosjekter, tilbakevendende oppgaver)
  • Eksplisitte instruksjoner («alltid oppgi kilder»)

Denne nytten skaper en angrepsflate: AI memory poisoning (MITRE ATLAS® AML.T0080) oppstår når en ekstern aktør får uautoriserte «fakta» eller instruksjoner lagret som om det var brukeren som ønsket det. Forskningen knytter denne teknikken til prompt-basert manipulering og relaterte kategorier (inkludert MITRE ATLAS®-oppføringer som AML.T0051).

Konsekvenser for IT-administratorer og sluttbrukere

  • Risiko for anbefalingsintegritet: Brukere kan få skjevt leverandør-/produktveiledning som fremstår objektiv.
  • Vanskelig å oppdage manipulering: «Giften» kan vedvare på tvers av økter, noe som gjør det vanskelig for brukere å koble senere beslutninger til et tidligere klikk.
  • Økt angrepsflate for sosial manipulering: Disse lenkene kan dukke opp på web eller leveres via e-post, og blander markedsføringstaktikker med sikkerhetsmisbruk.

Microsoft opplyser at de har implementert og fortsetter å rulle ut mitigations in Copilot mot prompt-injeksjon; i flere tilfeller lot tidligere rapportert atferd seg ikke lenger reprodusere – noe som indikerer at forsvaret er i utvikling.

Tiltak / neste steg

  • Oppdater sikkerhetsopplæring: Lær brukere at AI-«oppsummer»-lenker kan våpeniseres, særlig hvis de forhåndsutfyller prompter.
  • Gjennomgå e-post- og webbeskyttelse: Sørg for at lenkeskanning og phishing-forsvar er justert for å analysere uvanlige URL-parametere og omdirigeringsmønstre.
  • Etabler retningslinjer for AI-bruk: Oppfordre brukere til å verifisere kilder, kryssjekke anbefalinger og rapportere mistenkelige «minne»-avvik.
  • Operativ playbook: Definer trinn for brukere/administratorer for å gjennomgå og tømme assistentminne (der det støttes) og for å rapportere mistenkelige prompter/URL-er til sikkerhetsteam.

Recommendation Poisoning er et tydelig signal om at når AI blir et beslutningsstøttelag, må kontroller for integritet og proveniens utvikles i takt med tradisjonelle phishing- og webtrusselmodeller.

Trenger du hjelp med Security?

Våre eksperter kan hjelpe deg med å implementere og optimalisere dine Microsoft-løsninger.

Snakk med en ekspert

Hold deg oppdatert om Microsoft-teknologier

AI securityCopilotprompt injectionmemory poisoningMicrosoft Defender

Relaterte innlegg

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.