Sicurezza AI per CISO: guida pratica Microsoft
Riepilogo
Microsoft consiglia ai CISO di proteggere i sistemi AI usando gli stessi controlli fondamentali già applicati a software, identità e accesso ai dati. La guida evidenzia il principio del privilegio minimo, le difese contro il prompt injection e l’uso della stessa AI per individuare problemi di autorizzazione prima che lo facciano utenti o attaccanti.
Introduzione
L’adozione dell’AI sta accelerando nelle aziende, ma l’ultima guida di Microsoft chiarisce un punto: l’AI non deve essere trattata come qualcosa di magico. Per i CISO, l’approccio più efficace è applicare ai sistemi AI i fondamenti di sicurezza già noti, tenendo conto di nuovi rischi come il prompt injection e l’eccessiva esposizione dei dati.
Cosa raccomanda Microsoft
Microsoft descrive l’AI sia come un assistente junior sia come un componente software. Questo significa che le organizzazioni dovrebbero combinare una governance solida con i controlli di sicurezza tradizionali.
Principi chiave di sicurezza
- Trattare l’AI come software: i sistemi AI operano con identità, autorizzazioni e percorsi di accesso proprio come le altre applicazioni.
- Applicare il privilegio minimo e la minima agency: fornire all’AI solo i dati, le API e le azioni necessarie per il suo scopo specifico.
- Non permettere mai all’AI di prendere decisioni di controllo degli accessi: l’autorizzazione deve rimanere deterministica ed essere applicata da controlli non basati su AI.
- Assegnare identità appropriate: usare identità di servizio distinte o identità derivate dall’utente, allineate al caso d’uso.
- Testare gli input malevoli: soprattutto quando l’AI può compiere azioni significative per conto degli utenti.
Nuovi rischi specifici dell’AI da monitorare
Microsoft segnala gli attacchi di indirect prompt injection (XPIA) come una preoccupazione importante. Questo accade quando l’AI scambia contenuti non attendibili per istruzioni, ad esempio testo nascosto incorporato in curriculum o documenti.
Per ridurre questo rischio, Microsoft raccomanda di:
- Usare protezioni come Spotlighting e Prompt Shield
- Validare con attenzione il modo in cui l’AI gestisce contenuti esterni o non attendibili
- Suddividere le attività in passaggi più piccoli ed espliciti per migliorare l’affidabilità e ridurre gli errori
Perché è importante per i team IT e sicurezza
Uno degli aspetti più importanti è che l’AI può mettere in evidenza più rapidamente rispetto alla ricerca tradizionale o alla revisione manuale problemi già esistenti nella gestione dei dati e delle autorizzazioni. Poiché l’AI rende i dati accessibili più facili da trovare e sintetizzare, gli utenti possono far emergere informazioni a cui tecnicamente avevano accesso, ma che non ci si aspettava potessero scoprire facilmente.
Microsoft suggerisce un test pratico: usare un account utente standard con Microsoft 365 Copilot in modalità Researcher e fare domande su argomenti riservati a cui quell’utente non dovrebbe accedere. Se l’AI trova informazioni sensibili, potrebbe rivelare lacune nelle autorizzazioni sottostanti che richiedono una correzione immediata.
Prossimi passi consigliati
I team di sicurezza dovrebbero verificare le implementazioni AI rispetto ai principi Zero Trust e alle policy di data governance già esistenti.
- Eseguire un audit delle autorizzazioni e rimuovere gli accessi eccessivi
- Verificare dove risiedono i dati sensibili nell’intero patrimonio digitale
- Rafforzare i controlli sulle identità e l’accesso just-in-time
- Bloccare protocolli e formati legacy che non sono più necessari
- Aggiungere test di prompt injection alle valutazioni di sicurezza AI
- Definire chiari punti di approvazione umana per azioni AI con impatti rilevanti
Conclusione
Il messaggio di Microsoft ai CISO è pratico: proteggere l’AI nello stesso modo in cui si protegge qualsiasi sistema software potente, aggiungendo poi controlli per le modalità di errore specifiche dell’AI. Le organizzazioni che migliorano l’igiene dei dati, restringono gli accessi e validano il comportamento dell’AI saranno meglio posizionate per adottare l’AI in sicurezza su larga scala.
Hai bisogno di aiuto con Security?
I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.
Parla con un espertoResta aggiornato sulle tecnologie Microsoft