Security

Threat modeling per app di AI generativa e agentica

3 min di lettura

Riepilogo

Microsoft spiega perché il threat modeling tradizionale non basta per le app di AI generativa e agentica, dove output non deterministici, bias a seguire istruzioni e integrazione con tool e memoria creano nuove superfici d’attacco. Il tema è importante perché questi fattori aumentano il rischio di prompt injection, manipolazione e guasti che possono propagarsi rapidamente tra componenti, imponendo ai team di sicurezza un approccio aggiornato e più centrato sugli impatti reali sulle persone.

Hai bisogno di aiuto con Security?Parla con un esperto

Introduction: perché è importante

Il threat modeling aiuta i team a identificare cosa può andare storto in anticipo—prima che si verifichino guasti nel mondo reale o exploit avversari. Microsoft osserva che le applicazioni di AI (soprattutto i sistemi generativi e agentici) violano molte assunzioni del software tradizionale e deterministico, quindi i team di sicurezza devono adattare l’approccio di threat modeling per tenere conto di output probabilistici, superfici d’attacco ampliate e danni incentrati sulle persone.

What’s new: come l’AI cambia il panorama delle minacce

Microsoft evidenzia tre caratteristiche che spostano in modo sostanziale il threat modeling per l’AI:

  • Nondeterminism: lo stesso input può produrre output diversi tra esecuzioni, richiedendo l’analisi di intervalli di comportamento probabile—including esiti rari ma ad alto impatto.
  • Instruction-following bias: i modelli sono ottimizzati per essere utili, il che li rende più suscettibili a prompt injection, coercizione e manipolazione—soprattutto quando dati e istruzioni condividono lo stesso canale di input.
  • System expansion via tools and memory: i sistemi agentici possono chiamare API, mantenere stato e attivare workflow in modo autonomo. Quando qualcosa va storto, i guasti possono propagarsi rapidamente tra i componenti.

Queste proprietà rimodellano rischi noti in nuove forme, tra cui:

  • Direct and indirect prompt injection (incluso tramite contenuti esterni che il modello recupera)
  • Tool misuse and privilege escalation through chaining
  • Silent data exfiltration (output o chiamate a tool che fanno trapelare informazioni sensibili)
  • Confidently wrong outputs trattati come fatti
  • Human-centered harms come erosione della fiducia, eccessiva dipendenza, rafforzamento dei bias e disinformazione persuasiva

Threat model from assets, not attacks

Una raccomandazione chiave è iniziare definendo in modo esplicito cosa si sta proteggendo—perché gli asset dell’AI vanno oltre database e credenziali. Gli asset tipici, specifici dell’AI, includono:

  • User safety (soprattutto quando le indicazioni dell’AI influenzano le azioni)
  • User trust negli output e nel comportamento
  • Privacy/security of sensitive business and user data
  • Integrity of prompts, instructions, and contextual data
  • Integrity of agent actions and downstream effects

Questo inquadramento asset-first forza anche decisioni di policy fin dall’inizio: Quali azioni non dovrebbe mai compiere il sistema? Alcuni esiti possono essere inaccettabili indipendentemente dal beneficio.

Model the system you actually built

Microsoft sottolinea che il threat modeling per l’AI deve riflettere l’operatività reale, non diagrammi idealizzati. Prestare particolare attenzione a:

  • Come gli utenti interagiscono realmente con il sistema
  • Come prompt, memoria e contesto vengono assemblati e trasformati
  • Quali fonti esterne vengono ingerite e quali assunzioni di trust esistono
  • Quali tool/API il sistema può invocare (e con quali autorizzazioni)
  • Se le azioni sono reattive o autonome, e dove viene applicata l’approvazione umana

Nei sistemi di AI, la prompt assembly pipeline diventa un confine di sicurezza di primo livello—recupero del contesto, trasformazione, persistenza e riuso sono i punti in cui si accumulano assunzioni di trust “silenziose”.

Impact on IT admins and platform owners

Per gli amministratori che distribuiscono soluzioni di AI (app personalizzate, Copilot o workflow agentici), queste indicazioni ribadiscono che i controlli devono coprire:

  • L’intero percorso data-to-prompt-to-action (non solo l’hosting del modello)
  • Autorizzazioni e guardrail per l’accesso ai tool e le automazioni downstream
  • Monitoraggio operativo per output inattesi, chiamate ai tool insolite e pattern di exfiltration

Action items / next steps

  • Inventariare gli asset di AI: includere fiducia, sicurezza e integrità di istruzioni/contesto.
  • Mappare la prompt pipeline end-to-end: fonti, retrieval, trasformazione, memoria e riuso.
  • Vincolare le autorizzazioni dei tool e richiedere approvazione umana per azioni ad alto impatto.
  • Testare injection e misuse: includere indirect prompt injection tramite contenuti recuperati.
  • Pianificare gli incidenti: mitigare l’overreliance con segnali UX, passaggi di validazione e percorsi di escalation.

Hai bisogno di aiuto con Security?

I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.

Parla con un esperto

Resta aggiornato sulle tecnologie Microsoft

AI securitythreat modelingprompt injectionagentic AIrisk management

Articoli correlati

Security

Compromissione supply chain Trivy: guida Defender

Microsoft ha pubblicato linee guida per il rilevamento, l’indagine e la mitigazione della compromissione della supply chain di Trivy del marzo 2026, che ha interessato il binario Trivy e le GitHub Actions correlate. L’incidente è rilevante perché ha trasformato uno strumento di sicurezza CI/CD affidabile in un mezzo per rubare credenziali da pipeline di build, ambienti cloud e sistemi di sviluppo, continuando però a sembrare operativo normalmente.

Security

{{Governance degli AI agent: allineare gli intenti}}

{{Microsoft delinea un modello di governance per gli AI agent che allinea l’intento dell’utente, dello sviluppatore, basato sul ruolo e dell’organizzazione. Il framework aiuta le aziende a mantenere gli agent utili, sicuri e conformi definendo confini comportamentali e un chiaro ordine di precedenza quando sorgono conflitti.}}

Security

Microsoft Defender predictive shielding ferma ransomware GPO

Microsoft ha descritto un caso reale di ransomware in cui il predictive shielding di Defender ha rilevato l’abuso dannoso di Group Policy Object prima dell’inizio della crittografia. Rafforzando la propagazione dei GPO e interrompendo gli account compromessi, Defender ha bloccato circa il 97% dei tentativi di crittografia e ha impedito che qualsiasi dispositivo venisse cifrato tramite il percorso di distribuzione GPO.

Security

Sicurezza end-to-end per l’AI agentica con Microsoft

Microsoft ha presentato al RSAC 2026 una strategia di sicurezza end-to-end per l’AI agentica, annunciando la disponibilità generale di Agent 365 dal 1° maggio come piattaforma di controllo per osservare, proteggere e governare gli agenti AI su larga scala. La novità conta perché, insieme a strumenti come Security Dashboard for AI ed Entra Internet Access Shadow AI Detection, offre alle aziende maggiore visibilità sui rischi, aiuta a limitare l’accesso e la condivisione eccessiva dei dati e rafforza la difesa contro minacce AI emergenti.

Security

Microsoft Open Source CTI-REALM per AI Detection

Microsoft has open-sourced CTI-REALM, a new benchmark designed to test whether AI agents can perform real detection engineering work from cyber threat intelligence reports, not just answer cybersecurity questions. It matters because it evaluates end-to-end operational tasks across Linux, Azure Kubernetes Service, and Azure cloud environments, giving security teams a more realistic way to measure how useful AI may be for SOC and detection workflows.

Security

Microsoft Zero Trust for AI: workshop e architettura

Microsoft ha presentato Zero Trust for AI, una guida che estende i principi di Zero Trust agli ambienti AI per aiutare le aziende a proteggere modelli, agenti, dati e decisioni automatizzate. La novità più rilevante è l’aggiunta di un pilastro dedicato all’AI nel Zero Trust Workshop, con 700 controlli di sicurezza, 116 gruppi logici e 33 swim lane funzionali: un aggiornamento importante perché offre ai team IT e sicurezza un framework pratico per valutare i rischi dell’AI e applicare controlli coerenti su processi e tecnologie.