Security

Microsoft Cyber Pulse: AI Agent, Governance e Zero Trust

3 min di lettura

Riepilogo

Il report Cyber Pulse di Microsoft segnala che gli AI agent sono ormai diffusi nelle grandi aziende, spesso creati con strumenti low-code/no-code e sempre più autonomi, ma molte organizzazioni non riescono ancora a inventariarli, governarli e proteggerli adeguatamente. Questo conta perché la crescita della “shadow AI” — con il 29% dei dipendenti che usa agent non autorizzati — amplia i rischi su accessi, dati e conformità, rendendo essenziali visibilità, governance e approcci Zero Trust.

Hai bisogno di aiuto con Security?Parla con un esperto

Introduzione: perché conta adesso

Gli AI agent non sono più sperimentali: sono integrati nei flussi di lavoro quotidiani in ambito vendite, finanza, security operations e customer service. L’ultimo report Cyber Pulse di Microsoft evidenzia un gap critico: molte organizzazioni stanno adottando agent più velocemente di quanto riescano a inventariarli, governarli e metterli in sicurezza. Per i team IT e security, la sfida immediata è la visibilità—perché non puoi proteggere (o auditare) ciò che non riesci a vedere.

Novità / punti chiave del report

Gli AI agent sono mainstream—e non limitati agli sviluppatori

  • 80%+ delle aziende Fortune 500 utilizza AI agent attivi, spesso creati con strumenti low-code/no-code.
  • L’adozione attraversa settori (in particolare software/tecnologia, manifatturiero, servizi finanziari e retail) e aree geografiche a livello globale.
  • Gli agent operano sempre più in modalità autonome, eseguendo azioni con un coinvolgimento umano minimo—modificando il profilo di rischio rispetto alle app tradizionali.

Il nuovo punto cieco: la “shadow AI”

Microsoft osserva che molti leader non sanno rispondere a domande di base:

  • Quanti agent esistono nell’intera organizzazione?
  • Chi ne è il proprietario?
  • A quali dati e sistemi accedono?
  • Quali sono autorizzati vs. non autorizzati?

Non è un rischio solo teorico. Il report riporta che il 29% dei dipendenti ha usato AI agent non autorizzati per attività lavorative—introducendo nuovi canali di esposizione dei dati, violazioni di policy e abusi di permessi ereditati.

Principi Zero Trust—ora applicati su larga scala agli utenti non umani

Il report sottolinea la necessità di applicare in modo coerente agli agent i principi Zero Trust consolidati:

  • Least privilege access (gli agent ricevono solo ciò di cui hanno bisogno)
  • Explicit verification (validare identità e contesto per le richieste di accesso)
  • Assume compromise (progettare assumendo la violazione e puntando a un contenimento rapido)

L’osservabilità viene prima: cinque capacità necessarie

Microsoft descrive cinque capacità di base per costruire una reale osservabilità e governance degli AI agent:

  1. Registry: un inventario centralizzato/source of truth per tutti gli agent (inclusi terze parti e shadow)
  2. Access control: controlli basati su identità e policy, che applicano in modo coerente il least privilege
  3. Visualization: dashboard/telemetria per comprendere comportamento, dipendenze e rischio
  4. Interoperability: governance coerente tra ecosistemi Microsoft, open-source e di terze parti
  5. Security: protezioni per rilevare in anticipo abuso, drift e compromissione

Impatto su amministratori IT e utenti finali

  • L’identità diventa il control plane per gli agent: trattare gli agent come dipendenti o service account, con accesso governato e accountability.
  • Aumentano le pressioni su compliance e audit, soprattutto nei settori regolamentati (finanza, sanità, settore pubblico).
  • Gli utenti finali continueranno ad adottare strumenti se non sono disponibili alternative autorizzate—rendendo essenziali enablement e guardrail.

Azioni / prossimi passi

  • Definire subito un approccio di inventario/registry degli agent (partire dalle piattaforme autorizzate ed estendere alla discovery dell’uso non autorizzato).
  • Definire ownership e lifecycle (creazione, approvazione, change control, dismissione) per gli agent—la governance non coincide con la sicurezza.
  • Applicare least privilege alle identità degli agent (rivedere percorsi di accesso, secrets, connector e ambito dei dati).
  • Implementare monitoraggio e telemetria per rilevare comportamenti anomali e access drift.
  • Allineare un team cross-funzionale (IT, security, legale, compliance, HR, business owner) per trattare il rischio AI come enterprise risk.

Hai bisogno di aiuto con Security?

I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.

Parla con un esperto

Resta aggiornato sulle tecnologie Microsoft

Zero TrustAI agentsgovernanceobservabilityrisk management

Articoli correlati

Security

Compromissione supply chain Trivy: guida Defender

Microsoft ha pubblicato linee guida per il rilevamento, l’indagine e la mitigazione della compromissione della supply chain di Trivy del marzo 2026, che ha interessato il binario Trivy e le GitHub Actions correlate. L’incidente è rilevante perché ha trasformato uno strumento di sicurezza CI/CD affidabile in un mezzo per rubare credenziali da pipeline di build, ambienti cloud e sistemi di sviluppo, continuando però a sembrare operativo normalmente.

Security

{{Governance degli AI agent: allineare gli intenti}}

{{Microsoft delinea un modello di governance per gli AI agent che allinea l’intento dell’utente, dello sviluppatore, basato sul ruolo e dell’organizzazione. Il framework aiuta le aziende a mantenere gli agent utili, sicuri e conformi definendo confini comportamentali e un chiaro ordine di precedenza quando sorgono conflitti.}}

Security

Microsoft Defender predictive shielding ferma ransomware GPO

Microsoft ha descritto un caso reale di ransomware in cui il predictive shielding di Defender ha rilevato l’abuso dannoso di Group Policy Object prima dell’inizio della crittografia. Rafforzando la propagazione dei GPO e interrompendo gli account compromessi, Defender ha bloccato circa il 97% dei tentativi di crittografia e ha impedito che qualsiasi dispositivo venisse cifrato tramite il percorso di distribuzione GPO.

Security

Sicurezza end-to-end per l’AI agentica con Microsoft

Microsoft ha presentato al RSAC 2026 una strategia di sicurezza end-to-end per l’AI agentica, annunciando la disponibilità generale di Agent 365 dal 1° maggio come piattaforma di controllo per osservare, proteggere e governare gli agenti AI su larga scala. La novità conta perché, insieme a strumenti come Security Dashboard for AI ed Entra Internet Access Shadow AI Detection, offre alle aziende maggiore visibilità sui rischi, aiuta a limitare l’accesso e la condivisione eccessiva dei dati e rafforza la difesa contro minacce AI emergenti.

Security

Microsoft Open Source CTI-REALM per AI Detection

Microsoft has open-sourced CTI-REALM, a new benchmark designed to test whether AI agents can perform real detection engineering work from cyber threat intelligence reports, not just answer cybersecurity questions. It matters because it evaluates end-to-end operational tasks across Linux, Azure Kubernetes Service, and Azure cloud environments, giving security teams a more realistic way to measure how useful AI may be for SOC and detection workflows.

Security

Microsoft Zero Trust for AI: workshop e architettura

Microsoft ha presentato Zero Trust for AI, una guida che estende i principi di Zero Trust agli ambienti AI per aiutare le aziende a proteggere modelli, agenti, dati e decisioni automatizzate. La novità più rilevante è l’aggiunta di un pilastro dedicato all’AI nel Zero Trust Workshop, con 700 controlli di sicurezza, 116 gruppi logici e 33 swim lane funzionali: un aggiornamento importante perché offre ai team IT e sicurezza un framework pratico per valutare i rischi dell’AI e applicare controlli coerenti su processi e tecnologie.