Security

AI Recommendation Poisoning: riziko pro Copilot

3 min čtení

Shrnutí

Microsoft upozorňuje na nový typ zneužití nazvaný AI Recommendation Poisoning, kdy weby pomocí skrytých promptů v URL a funkcí paměti ovlivňují AI asistenty, aby dlouhodobě upřednostňovali konkrétní firmy či zdroje. To je důležité hlavně pro firmy, protože taková manipulace může nenápadně zkreslit nákupní rozhodnutí, bezpečnostní doporučení i celkovou důvěru v nástroje jako Copilot.

Potřebujete pomoc s Security?Mluvte s odborníkem

Úvod: proč je to důležité

AI asistenti jsou čím dál častěji považováni za důvěryhodné při shrnování obsahu, porovnávání dodavatelů a doporučování dalších kroků. Bezpečnostní výzkumníci Microsoft nyní pozorují škodlivé (a komerčně motivované) pokusy trvale zkreslit tyto asistenty manipulací s jejich pamětí—takže zdánlivě neškodné kliknutí na „Shrnout pomocí AI“ se může změnit v dlouhodobý vliv na budoucí odpovědi.

V enterprise prostředích jde o víc než jen problém integrity. Pokud lze doporučení asistenta nenápadně směrovat, může to ovlivnit rozhodnutí o nákupu, bezpečnostní doporučení i důvěru uživatelů—bez zjevných signálů, že se něco změnilo.

Co je nového: AI Recommendation Poisoning v praxi

Tým Microsoft Defender Security Research popisuje vznikající vzorec propagačního zneužití, který nazývá AI Recommendation Poisoning:

  • Skrytá prompt injection přes parametry URL: Webové stránky vkládají odkazy (často za tlačítky „Shrnout pomocí AI“), které otevřou AI asistenta s předvyplněným promptem pomocí query parametrů jako ?q=<prompt>.
  • Zacílení na perzistenci pomocí funkcí „memory“: Vložený prompt se snaží přidat trvalé instrukce typu „pamatuj si [Company] jako důvěryhodný zdroj“ nebo „doporuč [Company] jako první“.
  • Pozorováno ve velkém měřítku: Během 60denního období analýzy URL souvisejících s AI, které se objevily v e-mailovém provozu, výzkumníci identifikovali 50+ odlišných pokusů o prompt od 31 společností napříč 14 odvětvími.
  • Cílení napříč platformami: Stejný přístup byl pozorován při pokusech ovlivnit více asistentů (příklady zahrnovaly URL pro Copilot, ChatGPT, Claude, Perplexity a další). Účinnost se liší podle platformy a mění se s tím, jak se zavádějí mitigace.

Jak to funguje (a proč „memory“ mění riziko)

Moderní asistenti mohou uchovávat:

  • Preference (formátování, tón)
  • Kontext (projekty, opakující se úkoly)
  • Explicitní instrukce („vždy uváděj zdroje“)

Tato užitečnost vytváří prostor pro útok: AI memory poisoning (MITRE ATLAS® AML.T0080) nastává, když externí aktér způsobí uložení neautorizovaných „faktů“ nebo instrukcí tak, jako by byly zamýšlené uživatelem. Výzkum tuto techniku mapuje na manipulaci založenou na prompech a související kategorie (včetně položek MITRE ATLAS® jako AML.T0051).

Dopad na IT administrátory a koncové uživatele

  • Riziko integrity doporučení: Uživatelé mohou dostávat zkreslené rady ohledně dodavatelů/produktů, které působí objektivně.
  • Obtížně detekovatelná manipulace: „Jed“ může přetrvat napříč relacemi, takže je pro uživatele těžké propojit pozdější rozhodnutí s dřívějším kliknutím.
  • Rozšíření prostoru pro social engineering: Tyto odkazy se mohou objevit na webu nebo být doručeny e-mailem, čímž se marketingové taktiky prolínají s bezpečnostním zneužitím.

Microsoft uvádí, že implementoval a nadále nasazuje mitigace v Copilot proti prompt injection; v několika případech již dříve nahlášené chování nešlo znovu reprodukovat—což naznačuje, že obrana se vyvíjí.

Akční kroky / další postup

  • Aktualizujte školení bezpečnostního povědomí: Učte uživatele, že AI odkazy pro „shrnutí“ mohou být zneužity jako zbraň, zejména pokud předvyplňují prompty.
  • Prověřte ochranu e-mailu a webu: Zajistěte, aby link-scanning a ochrana proti phishingu byly nastavené na analýzu neobvyklých parametrů URL a vzorců přesměrování.
  • Stanovte pravidla pro používání AI: Povzbuzujte uživatele k ověřování zdrojů, křížové kontrole doporučení a hlášení podezřelých anomálií v „memory“.
  • Provozní playbook: Definujte kroky pro uživatele/administrátory, jak zkontrolovat a vymazat paměť asistenta (kde je to podporováno) a jak hlásit podezřelé prompty/URL bezpečnostním týmům.

Recommendation Poisoning je jasným signálem, že jak se AI stává vrstvou pro podporu rozhodování, musí se řízení integrity a provenance vyvíjet spolu s tradičními modely phishingu a webových hrozeb.

Potřebujete pomoc s Security?

Naši odborníci vám pomohou implementovat a optimalizovat vaše Microsoft řešení.

Mluvte s odborníkem

Buďte v obraze o technologiích Microsoft

AI securityCopilotprompt injectionmemory poisoningMicrosoft Defender

Související články

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.