Security

Microsoft Zero Trust for AI: workshop e architettura

3 min di lettura

Riepilogo

Microsoft ha presentato Zero Trust for AI, una guida che estende i principi di Zero Trust agli ambienti AI per aiutare le aziende a proteggere modelli, agenti, dati e decisioni automatizzate. La novità più rilevante è l’aggiunta di un pilastro dedicato all’AI nel Zero Trust Workshop, con 700 controlli di sicurezza, 116 gruppi logici e 33 swim lane funzionali: un aggiornamento importante perché offre ai team IT e sicurezza un framework pratico per valutare i rischi dell’AI e applicare controlli coerenti su processi e tecnologie.

Hai bisogno di aiuto con Security?Parla con un esperto

Introduzione

Con l'accelerazione dell'adozione dell'AI nelle aziende, ai team di sicurezza viene chiesto di proteggere nuovi confini di fiducia che coinvolgono modelli, agenti, origini dati e decisioni automatizzate. La nuova guida di Microsoft Zero Trust for AI (ZT4AI) è importante perché offre ai responsabili IT e della sicurezza un modo più strutturato per valutare, progettare e rendere operativa la sicurezza dell'AI utilizzando i familiari principi di Zero Trust.

Novità

Principi di Zero Trust applicati all'AI

Microsoft sta estendendo l'approccio standard di Zero Trust agli ambienti AI con tre principi fondamentali:

  • Verifica esplicita: convalida continuamente l'identità e il comportamento di utenti, workload e agenti AI.
  • Applica il privilegio minimo: limita l'accesso a prompt, modelli, plugin e origini dati solo a quanto necessario.
  • Presumi la violazione: progetta per la resilienza contro prompt injection, data poisoning e lateral movement.

Nuovo pilastro AI nel Zero Trust Workshop

Il Zero Trust Workshop aggiornato ora include un pilastro dedicato all'AI. Microsoft afferma che il workshop ora comprende:

  • 700 controlli di sicurezza
  • 116 gruppi logici
  • 33 swim lane funzionali

Il workshop è pensato per aiutare i team ad allineare i responsabili della sicurezza, dell'IT e del business, valutare i rischi specifici dell'AI e mappare i controlli tra i prodotti e i processi di sicurezza Microsoft.

Zero Trust Assessment ampliato

Microsoft ha inoltre aggiornato lo strumento Zero Trust Assessment con nuovi pilastri Data e Network, oltre alla copertura esistente di Identity e Devices. Questo è particolarmente rilevante per le distribuzioni AI in cui:

  • I dati sensibili devono essere classificati, etichettati e governati
  • La prevenzione della perdita di dati diventa più critica
  • I controlli di rete possono aiutare a ispezionare il comportamento degli agenti e ridurre l'esposizione non autorizzata

Microsoft ha inoltre confermato che un pilastro di valutazione specifico per l'AI è in fase di sviluppo ed è previsto per estate 2026.

Nuova architettura di riferimento e modelli

Una nuova architettura di riferimento Zero Trust for AI fornisce un modello condiviso per applicare controlli di accesso guidati da criteri, verifica continua, monitoraggio e governance nei sistemi AI. Microsoft ha inoltre pubblicato modelli pratici e best practice per aree quali:

  • Threat modeling per l'AI
  • AI observability per logging, tracciabilità e monitoraggio

Impatto per gli amministratori IT e i team di sicurezza

Per gli amministratori, questo annuncio offre un percorso più chiaro dalla strategia all'implementazione. I team responsabili di Microsoft Security, della governance dei dati, del networking e dell'identità possono utilizzare questi aggiornamenti per valutare meglio i rischi dell'AI, in particolare quelli legati ad agenti con privilegi eccessivi, prompt injection ed esposizione indesiderata dei dati.

Le organizzazioni che stanno implementando Copilots, app AI personalizzate o agenti autonomi dovrebbero considerarlo un segnale del fatto che la sicurezza dell'AI richiede la stessa governance strutturata già utilizzata per la sicurezza di identità, endpoint e cloud.

Prossimi passi

  • Esamina il Zero Trust Workshop aggiornato e individua dove si applicano i controlli specifici per l'AI nel tuo ambiente.
  • Utilizza il Zero Trust Assessment potenziato per definire una baseline dei controlli di Identity, Devices, Data e Network.
  • Mappa le tue distribuzioni AI rispetto alla nuova architettura di riferimento.
  • Dai priorità alla governance per l'identità degli agenti, l'accesso ai dati, il logging e le difese contro la prompt injection.
  • Pianifica l'arrivo del futuro pilastro AI nel Zero Trust Assessment nel corso del 2026.

Il messaggio di Microsoft è chiaro: la sicurezza dell'AI non dovrebbe essere trattata come una disciplina separata, ma come un'estensione naturale di Zero Trust.

Hai bisogno di aiuto con Security?

I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.

Parla con un esperto

Resta aggiornato sulle tecnologie Microsoft

Zero TrustAI securityMicrosoft Securitydata governancenetwork security

Articoli correlati

Security

Compromissione supply chain Trivy: guida Defender

Microsoft ha pubblicato linee guida per il rilevamento, l’indagine e la mitigazione della compromissione della supply chain di Trivy del marzo 2026, che ha interessato il binario Trivy e le GitHub Actions correlate. L’incidente è rilevante perché ha trasformato uno strumento di sicurezza CI/CD affidabile in un mezzo per rubare credenziali da pipeline di build, ambienti cloud e sistemi di sviluppo, continuando però a sembrare operativo normalmente.

Security

{{Governance degli AI agent: allineare gli intenti}}

{{Microsoft delinea un modello di governance per gli AI agent che allinea l’intento dell’utente, dello sviluppatore, basato sul ruolo e dell’organizzazione. Il framework aiuta le aziende a mantenere gli agent utili, sicuri e conformi definendo confini comportamentali e un chiaro ordine di precedenza quando sorgono conflitti.}}

Security

Microsoft Defender predictive shielding ferma ransomware GPO

Microsoft ha descritto un caso reale di ransomware in cui il predictive shielding di Defender ha rilevato l’abuso dannoso di Group Policy Object prima dell’inizio della crittografia. Rafforzando la propagazione dei GPO e interrompendo gli account compromessi, Defender ha bloccato circa il 97% dei tentativi di crittografia e ha impedito che qualsiasi dispositivo venisse cifrato tramite il percorso di distribuzione GPO.

Security

Sicurezza end-to-end per l’AI agentica con Microsoft

Microsoft ha presentato al RSAC 2026 una strategia di sicurezza end-to-end per l’AI agentica, annunciando la disponibilità generale di Agent 365 dal 1° maggio come piattaforma di controllo per osservare, proteggere e governare gli agenti AI su larga scala. La novità conta perché, insieme a strumenti come Security Dashboard for AI ed Entra Internet Access Shadow AI Detection, offre alle aziende maggiore visibilità sui rischi, aiuta a limitare l’accesso e la condivisione eccessiva dei dati e rafforza la difesa contro minacce AI emergenti.

Security

Microsoft Open Source CTI-REALM per AI Detection

Microsoft has open-sourced CTI-REALM, a new benchmark designed to test whether AI agents can perform real detection engineering work from cyber threat intelligence reports, not just answer cybersecurity questions. It matters because it evaluates end-to-end operational tasks across Linux, Azure Kubernetes Service, and Azure cloud environments, giving security teams a more realistic way to measure how useful AI may be for SOC and detection workflows.

Security

Microsoft segnala phishing fiscale contro Microsoft 365

Microsoft ha segnalato un aumento delle campagne di phishing a tema fiscale contro gli utenti Microsoft 365, con tecniche più sofisticate come codici QR, catene di reindirizzamento, file ospitati nel cloud e kit phishing-as-a-service come Energy365 e SneakyLog. La notizia è importante perché questi attacchi sfruttano la pressione della stagione fiscale e strumenti legittimi per aggirare i controlli tradizionali, aumentando il rischio di furto di credenziali e compromissione aziendale.