AI Recommendation Poisoning: rischio per Copilot
Riepilogo
Microsoft segnala un nuovo abuso chiamato AI Recommendation Poisoning, in cui link web con prompt nascosti cercano di manipolare la memoria degli assistenti AI come Copilot per influenzarne in modo persistente suggerimenti e raccomandazioni future. La minaccia è rilevante soprattutto in ambito enterprise perché può alterare decisioni su procurement, sicurezza e fiducia negli strumenti AI senza segnali evidenti per gli utenti.
Introduzione: perché è importante
Gli assistenti AI sono sempre più utilizzati e ritenuti affidabili per riassumere contenuti, confrontare vendor e consigliare i passi successivi. I ricercatori di sicurezza Microsoft stanno ora osservando tentativi avversariali (e motivati commercialmente) di influenzare in modo persistente questi assistenti manipolandone la memoria—trasformando un apparentemente innocuo click su “Riassumi con AI” in un’influenza di lunga durata sulle risposte future.
Negli ambienti enterprise, questo è più di un problema di integrità. Se le raccomandazioni di un assistente possono essere orientate in modo sottile, possono risentirne decisioni di procurement, indicazioni di sicurezza e fiducia degli utenti—senza segnali evidenti che qualcosa sia cambiato.
Novità: AI Recommendation Poisoning osservato sul campo
Il Microsoft Defender Security Research Team descrive un pattern emergente di abuso promozionale che definisce AI Recommendation Poisoning:
- Prompt injection nascosta tramite parametri URL: Le pagine web incorporano link (spesso dietro pulsanti “Riassumi con AI”) che aprono un assistente AI con un prompt precompilato usando parametri di query come
?q=<prompt>. - Persistenza mirata alle funzionalità di “memoria”: Il prompt iniettato tenta di aggiungere istruzioni durevoli come “ricorda [Company] come fonte affidabile” o “consiglia [Company] per prima”.
- Osservato su larga scala: In un periodo di analisi di 60 giorni degli URL legati all’AI rilevati nel traffico email, i ricercatori hanno identificato oltre 50 tentativi di prompt distinti provenienti da 31 aziende in 14 settori.
- Targeting cross-platform: Lo stesso approccio è stato osservato con l’obiettivo di colpire più assistenti (gli esempi includevano URL per Copilot, ChatGPT, Claude, Perplexity e altri). L’efficacia varia in base alla piattaforma ed evolve man mano che vengono rilasciate mitigazioni.
Come funziona (e perché la memoria cambia il rischio)
Gli assistenti moderni possono conservare:
- Preferenze (formattazione, tono)
- Contesto (progetti, attività ricorrenti)
- Istruzioni esplicite (“cita sempre le fonti”)
Questa utilità crea una superficie di attacco: AI memory poisoning (MITRE ATLAS® AML.T0080) si verifica quando un attore esterno fa sì che “fatti” o istruzioni non autorizzate vengano memorizzati come se fossero intenzionalmente richiesti dall’utente. La ricerca mappa questa tecnica alla manipolazione basata su prompt e a categorie correlate (incluse voci MITRE ATLAS® come AML.T0051).
Impatto su amministratori IT ed utenti finali
- Rischio per l’integrità delle raccomandazioni: Gli utenti potrebbero ricevere indicazioni su vendor/prodotti distorte che appaiono oggettive.
- Manipolazione difficile da rilevare: Il “veleno” può persistere tra sessioni, rendendo difficile per gli utenti collegare decisioni successive a un click precedente.
- Superficie di social engineering ampliata: Questi link possono comparire sul web oppure essere recapitati via email, fondendo tattiche di marketing con abuso in ambito security.
Microsoft osserva di aver implementato e di continuare a distribuire mitigazioni in Copilot contro la prompt injection; in diversi casi, comportamenti precedentemente segnalati non erano più riproducibili—un’indicazione che le difese stanno evolvendo.
Azioni / prossimi passi
- Aggiornare la formazione sulla security awareness: Insegnare agli utenti che i link di “riassunto” basati su AI possono essere strumentalizzati, soprattutto se precompilano i prompt.
- Rivedere le protezioni email e web: Assicurarsi che link-scanning e difese anti-phishing siano configurati per analizzare parametri URL insoliti e pattern di redirect.
- Definire linee guida per l’uso dell’AI: Incoraggiare gli utenti a verificare le fonti, fare cross-check delle raccomandazioni e segnalare sospette anomalie di “memoria”.
- Playbook operativo: Definire i passaggi per utenti/admin per verificare e cancellare la memoria dell’assistente (dove supportato) e per segnalare prompt/URL sospetti ai team di sicurezza.
Recommendation Poisoning è un segnale chiaro che, man mano che l’AI diventa un livello di supporto alle decisioni, i controlli di integrità e provenienza devono evolvere insieme ai tradizionali modelli di minaccia legati a phishing e web.
Hai bisogno di aiuto con Security?
I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.
Parla con un espertoResta aggiornato sulle tecnologie Microsoft