Security

AI Observability Security per sistemi GenAI e agentic

3 min di lettura

Riepilogo

Microsoft is updating its security guidance to treat AI observability as a core requirement for GenAI and agentic systems, arguing that traditional monitoring of uptime, latency, and error rates cannot detect many AI-specific failures or attacks. This matters because enterprise AI agents increasingly access sensitive data, external content, and automated tools, making richer visibility into context, provenance, and agent behavior essential to identify compromise, prevent unsafe actions, and secure production deployments.

Riepilogo audio

0:00--:--
Hai bisogno di aiuto con Security?Parla con un esperto

Introduzione

Con il passaggio della generative AI e della agentic AI dai progetti pilota alla produzione, queste tecnologie stanno diventando parte dei flussi di lavoro aziendali core, spesso con accesso a dati sensibili, strumenti esterni e azioni automatizzate. Le più recenti linee guida di sicurezza di Microsoft chiariscono che il tradizionale monitoraggio di uptime e prestazioni non è più sufficiente per questi sistemi.

Cosa c’è di nuovo

Microsoft sta ampliando il dibattito sullo sviluppo sicuro dell’AI, posizionando AI observability come requisito chiave all’interno del proprio Secure Development Lifecycle (SDL).

Perché il monitoraggio tradizionale non basta

L’observability convenzionale si concentra su segnali applicativi deterministici come:

  • Disponibilità
  • Latenza
  • Throughput
  • Tassi di errore

Per i sistemi AI, questi segnali possono apparire normali anche quando il sistema è compromesso. Microsoft evidenzia scenari in cui un agente AI consuma contenuti esterni avvelenati o malevoli, li trasferisce tra agenti e attiva azioni non autorizzate senza generare errori convenzionali.

Cosa dovrebbe includere l’AI observability

Secondo Microsoft, l’AI observability deve evolvere oltre log, metriche e trace standard per acquisire segnali nativi dell’AI, tra cui:

  • Assemblaggio del contesto: quali istruzioni, contenuti recuperati, cronologia della conversazione e output degli strumenti sono stati utilizzati per una determinata esecuzione
  • Provenienza della fonte e classificazione dell’affidabilità: da dove provengono i contenuti e se debbano essere considerati affidabili
  • Logging di prompt e risposte: fondamentale per identificare prompt injection, jailbreak multi-turn e cambiamenti nel comportamento del modello
  • Correlazione a livello di ciclo di vita dell’agente: un identificatore stabile attraverso conversazioni multi-turn e interazioni tra agenti
  • Metriche specifiche per l’AI: utilizzo dei token, volume di retrieval, turni dell’agente e cambiamenti comportamentali dopo aggiornamenti del modello
  • Trace end-to-end: visibilità dal prompt iniziale all’uso degli strumenti fino all’output finale

Due pilastri aggiuntivi: evaluation e governance

Microsoft estende inoltre l’observability con:

  • Evaluation: misurazione della qualità dell’output, grounding, allineamento alle istruzioni e uso corretto degli strumenti
  • Governance: utilizzo di telemetria e controlli per supportare applicazione delle policy, auditabilità e accountability

Perché è importante per i team IT e di sicurezza

Per gli amministratori, i team di sicurezza e i responsabili delle piattaforme AI, queste linee guida rafforzano il concetto che i sistemi AI necessitano di controlli di sicurezza progettati per comportamenti probabilistici e multi-step. Senza una telemetria più ricca, i team potrebbero avere difficoltà a rilevare prompt injection, tracciare i percorsi di esfiltrazione dei dati, convalidare la conformità alle policy o spiegare perché un agente si sia comportato in modo inaspettato.

Questo è particolarmente rilevante per le organizzazioni che distribuiscono copilots, agenti AI personalizzati, app di retrieval-augmented generation o workflow autonomi connessi a Microsoft 365, dati aziendali o API esterne.

Prossimi passi consigliati

Le organizzazioni dovrebbero rivedere le attuali pratiche di monitoraggio dell’AI e valutare se acquisiscono un livello di dettaglio sufficiente per investigare i rischi specifici dell’AI.

Le azioni chiave includono:

  • Inventariare app AI, copilots e agenti in produzione
  • Abilitare il logging di prompt, risposte, chiamate agli strumenti e contenuti recuperati, ove appropriato
  • Conservare il tracing a livello di conversazione nei workflow multi-turn e multi-agent
  • Aggiungere processi di evaluation per grounding, qualità e allineamento alle policy
  • Allineare l’AI observability ai processi di governance, audit e incident response

Il messaggio di Microsoft è chiaro: se l’AI sta diventando infrastruttura di produzione, l’observability deve entrare a far parte della baseline di sicurezza.

Hai bisogno di aiuto con Security?

I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.

Parla con un esperto

Resta aggiornato sulle tecnologie Microsoft

SecurityAI observabilityGenerative AIagentic AIgovernance

Articoli correlati

Security

Compromissione supply chain Trivy: guida Defender

Microsoft ha pubblicato linee guida per il rilevamento, l’indagine e la mitigazione della compromissione della supply chain di Trivy del marzo 2026, che ha interessato il binario Trivy e le GitHub Actions correlate. L’incidente è rilevante perché ha trasformato uno strumento di sicurezza CI/CD affidabile in un mezzo per rubare credenziali da pipeline di build, ambienti cloud e sistemi di sviluppo, continuando però a sembrare operativo normalmente.

Security

{{Governance degli AI agent: allineare gli intenti}}

{{Microsoft delinea un modello di governance per gli AI agent che allinea l’intento dell’utente, dello sviluppatore, basato sul ruolo e dell’organizzazione. Il framework aiuta le aziende a mantenere gli agent utili, sicuri e conformi definendo confini comportamentali e un chiaro ordine di precedenza quando sorgono conflitti.}}

Security

Microsoft Defender predictive shielding ferma ransomware GPO

Microsoft ha descritto un caso reale di ransomware in cui il predictive shielding di Defender ha rilevato l’abuso dannoso di Group Policy Object prima dell’inizio della crittografia. Rafforzando la propagazione dei GPO e interrompendo gli account compromessi, Defender ha bloccato circa il 97% dei tentativi di crittografia e ha impedito che qualsiasi dispositivo venisse cifrato tramite il percorso di distribuzione GPO.

Security

Sicurezza end-to-end per l’AI agentica con Microsoft

Microsoft ha presentato al RSAC 2026 una strategia di sicurezza end-to-end per l’AI agentica, annunciando la disponibilità generale di Agent 365 dal 1° maggio come piattaforma di controllo per osservare, proteggere e governare gli agenti AI su larga scala. La novità conta perché, insieme a strumenti come Security Dashboard for AI ed Entra Internet Access Shadow AI Detection, offre alle aziende maggiore visibilità sui rischi, aiuta a limitare l’accesso e la condivisione eccessiva dei dati e rafforza la difesa contro minacce AI emergenti.

Security

Microsoft Open Source CTI-REALM per AI Detection

Microsoft has open-sourced CTI-REALM, a new benchmark designed to test whether AI agents can perform real detection engineering work from cyber threat intelligence reports, not just answer cybersecurity questions. It matters because it evaluates end-to-end operational tasks across Linux, Azure Kubernetes Service, and Azure cloud environments, giving security teams a more realistic way to measure how useful AI may be for SOC and detection workflows.

Security

Microsoft Zero Trust for AI: workshop e architettura

Microsoft ha presentato Zero Trust for AI, una guida che estende i principi di Zero Trust agli ambienti AI per aiutare le aziende a proteggere modelli, agenti, dati e decisioni automatizzate. La novità più rilevante è l’aggiunta di un pilastro dedicato all’AI nel Zero Trust Workshop, con 700 controlli di sicurezza, 116 gruppi logici e 33 swim lane funzionali: un aggiornamento importante perché offre ai team IT e sicurezza un framework pratico per valutare i rischi dell’AI e applicare controlli coerenti su processi e tecnologie.