Security

AI nei cyberattacchi: cosa osserva Microsoft

3 min di lettura

Riepilogo

Microsoft osserva che l’uso malevolo dell’AI nei cyberattacchi oggi serve soprattutto come acceleratore: aiuta gli attaccanti a creare phishing più credibili, analizzare dati rubati, generare codice e velocizzare la ricognizione su vulnerabilità note. Questo conta perché l’AI non introduce necessariamente nuovi vettori di attacco, ma rende quelli esistenti più rapidi, scalabili e persistenti, aumentando la pressione sui team di sicurezza.

Hai bisogno di aiuto con Security?Parla con un esperto

Introduzione: perché conta adesso

Le aziende stanno integrando rapidamente l’AI per migliorare la produttività, ma anche gli attaccanti stanno adottando le stesse tecnologie per aumentare velocità, scala e ripetibilità delle operazioni cyber. Microsoft Threat Intelligence evidenzia che l’uso malevolo più comune oggi è la generazione di contenuti e codice guidata da language model, che riduce l’attrito tecnico mentre l’essere umano mantiene il controllo su targeting ed esecuzione. Per i team IT, il messaggio chiave è che l’AI non crea necessariamente nuovi percorsi di attacco, ma accelera in modo significativo quelli esistenti e può aumentare la persistenza operativa.

Cosa c’è di nuovo: come gli attaccanti rendono operativa l’AI

Le osservazioni di Microsoft distinguono tra AI come acceleratore (la più comune oggi) e AI come arma (emergente).

AI come acceleratore lungo il ciclo di vita dell’attacco

Gli attori delle minacce usano l’AI generativa per:

  • Redigere e localizzare contenuti di phishing/social engineering (esche più convincenti, iterazioni più rapide).
  • Riassumere e fare triage dei dati sottratti post-compromissione per identificare rapidamente le informazioni di maggior valore.
  • Generare, fare debug o predisporre codice (componenti malware, script, template di infrastruttura).
  • Accelerare la ricognizione, inclusa la ricerca su vulnerabilità e la comprensione dei percorsi di exploit a partire da CVE pubblici.
  • Costruire personae credibili analizzando annunci di lavoro, estraendo requisiti di ruolo e generando artefatti identitari allineati culturalmente.

Un esempio reale chiave citato nel blog è l’attività di remote IT worker nordcoreani (tracciata come Jasper Sleet e Coral Sleet), in cui l’AI supporta la fabbricazione dell’identità, il social engineering e la persistenza di lungo periodo, aiutando gli attori a “farsi assumere, restare assunti e abusare dell’accesso su larga scala”.

Sovvertire i controlli di sicurezza dell’AI (jailbreaking)

Microsoft segnala sperimentazioni attive per aggirare le protezioni dei modelli, inclusi:

  • Riformulazione dei prompt e concatenamento di istruzioni multi-step
  • Abuso di prompt in stile system/developer
  • Jailbreak basati sui ruoli (ad esempio: “Rispondi come un analista di cybersecurity affidabile”) per ottenere indicazioni soggette a restrizioni

Trend emergente: sperimentazione con agentic AI

Pur non essendo ancora osservata su larga scala, Microsoft rileva le prime sperimentazioni con agentic AI per decision-making iterativo ed esecuzione di task, con il potenziale di portare a un tradecraft più adattivo che complica rilevamento e risposta.

Impatto su amministratori IT e utenti finali

  • Maggiore volume e qualità del phishing aumenta il rischio di furto credenziali e compromissione guidata dall’helpdesk.
  • Sfruttamento più rapido e scelta più veloce degli strumenti comprimono le finestre di risposta dopo la disclosure di una vulnerabilità.
  • Maggiore rischio “tipo insider” tramite scenari di contractor/lavoratori fraudolenti e abuso di accessi legittimi.

Azioni / prossimi passi

  • Rafforzare identità e accesso: applicare controlli resistenti all’MFA dove possibile, usare Conditional Access e limitare rigorosamente i privilegi.
  • Rafforzare la verifica in fase di assunzione/onboarding di contractor: validare identità, postura del dispositivo e confini di accesso per lavoratori da remoto.
  • Aumentare la resilienza al phishing: formazione utenti più controlli tecnici (safe links/attachments, impersonation protection).
  • Monitorare pattern di accesso anomali coerenti con comportamenti di lavoratori esternalizzati/fraudolenti (geo insolita, spostamenti impossibili, strumenti atipici).
  • Sfruttare le rilevazioni e le investigazioni di Microsoft Defender evidenziate da Microsoft per rilevare, correggere e rispondere ad attività abilitate dall’AI.

Microsoft sottolinea che l’AI può amplificare anche i difensori, se abbinata a controlli solidi, rilevazioni guidate dall’intelligence e iniziative coordinate di disruption.

Hai bisogno di aiuto con Security?

I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.

Parla con un esperto

Resta aggiornato sulle tecnologie Microsoft

Microsoft Threat IntelligenceDefenderphishinggenerative AIidentity security

Articoli correlati

Security

Compromissione supply chain Trivy: guida Defender

Microsoft ha pubblicato linee guida per il rilevamento, l’indagine e la mitigazione della compromissione della supply chain di Trivy del marzo 2026, che ha interessato il binario Trivy e le GitHub Actions correlate. L’incidente è rilevante perché ha trasformato uno strumento di sicurezza CI/CD affidabile in un mezzo per rubare credenziali da pipeline di build, ambienti cloud e sistemi di sviluppo, continuando però a sembrare operativo normalmente.

Security

{{Governance degli AI agent: allineare gli intenti}}

{{Microsoft delinea un modello di governance per gli AI agent che allinea l’intento dell’utente, dello sviluppatore, basato sul ruolo e dell’organizzazione. Il framework aiuta le aziende a mantenere gli agent utili, sicuri e conformi definendo confini comportamentali e un chiaro ordine di precedenza quando sorgono conflitti.}}

Security

Microsoft Defender predictive shielding ferma ransomware GPO

Microsoft ha descritto un caso reale di ransomware in cui il predictive shielding di Defender ha rilevato l’abuso dannoso di Group Policy Object prima dell’inizio della crittografia. Rafforzando la propagazione dei GPO e interrompendo gli account compromessi, Defender ha bloccato circa il 97% dei tentativi di crittografia e ha impedito che qualsiasi dispositivo venisse cifrato tramite il percorso di distribuzione GPO.

Security

Sicurezza end-to-end per l’AI agentica con Microsoft

Microsoft ha presentato al RSAC 2026 una strategia di sicurezza end-to-end per l’AI agentica, annunciando la disponibilità generale di Agent 365 dal 1° maggio come piattaforma di controllo per osservare, proteggere e governare gli agenti AI su larga scala. La novità conta perché, insieme a strumenti come Security Dashboard for AI ed Entra Internet Access Shadow AI Detection, offre alle aziende maggiore visibilità sui rischi, aiuta a limitare l’accesso e la condivisione eccessiva dei dati e rafforza la difesa contro minacce AI emergenti.

Security

Microsoft Open Source CTI-REALM per AI Detection

Microsoft has open-sourced CTI-REALM, a new benchmark designed to test whether AI agents can perform real detection engineering work from cyber threat intelligence reports, not just answer cybersecurity questions. It matters because it evaluates end-to-end operational tasks across Linux, Azure Kubernetes Service, and Azure cloud environments, giving security teams a more realistic way to measure how useful AI may be for SOC and detection workflows.

Security

Microsoft Zero Trust for AI: workshop e architettura

Microsoft ha presentato Zero Trust for AI, una guida che estende i principi di Zero Trust agli ambienti AI per aiutare le aziende a proteggere modelli, agenti, dati e decisioni automatizzate. La novità più rilevante è l’aggiunta di un pilastro dedicato all’AI nel Zero Trust Workshop, con 700 controlli di sicurezza, 116 gruppi logici e 33 swim lane funzionali: un aggiornamento importante perché offre ai team IT e sicurezza un framework pratico per valutare i rischi dell’AI e applicare controlli coerenti su processi e tecnologie.