AI nei cyberattacchi: cosa osserva Microsoft
Riepilogo
Microsoft osserva che l’uso malevolo dell’AI nei cyberattacchi oggi serve soprattutto come acceleratore: aiuta gli attaccanti a creare phishing più credibili, analizzare dati rubati, generare codice e velocizzare la ricognizione su vulnerabilità note. Questo conta perché l’AI non introduce necessariamente nuovi vettori di attacco, ma rende quelli esistenti più rapidi, scalabili e persistenti, aumentando la pressione sui team di sicurezza.
Introduzione: perché conta adesso
Le aziende stanno integrando rapidamente l’AI per migliorare la produttività, ma anche gli attaccanti stanno adottando le stesse tecnologie per aumentare velocità, scala e ripetibilità delle operazioni cyber. Microsoft Threat Intelligence evidenzia che l’uso malevolo più comune oggi è la generazione di contenuti e codice guidata da language model, che riduce l’attrito tecnico mentre l’essere umano mantiene il controllo su targeting ed esecuzione. Per i team IT, il messaggio chiave è che l’AI non crea necessariamente nuovi percorsi di attacco, ma accelera in modo significativo quelli esistenti e può aumentare la persistenza operativa.
Cosa c’è di nuovo: come gli attaccanti rendono operativa l’AI
Le osservazioni di Microsoft distinguono tra AI come acceleratore (la più comune oggi) e AI come arma (emergente).
AI come acceleratore lungo il ciclo di vita dell’attacco
Gli attori delle minacce usano l’AI generativa per:
- Redigere e localizzare contenuti di phishing/social engineering (esche più convincenti, iterazioni più rapide).
- Riassumere e fare triage dei dati sottratti post-compromissione per identificare rapidamente le informazioni di maggior valore.
- Generare, fare debug o predisporre codice (componenti malware, script, template di infrastruttura).
- Accelerare la ricognizione, inclusa la ricerca su vulnerabilità e la comprensione dei percorsi di exploit a partire da CVE pubblici.
- Costruire personae credibili analizzando annunci di lavoro, estraendo requisiti di ruolo e generando artefatti identitari allineati culturalmente.
Un esempio reale chiave citato nel blog è l’attività di remote IT worker nordcoreani (tracciata come Jasper Sleet e Coral Sleet), in cui l’AI supporta la fabbricazione dell’identità, il social engineering e la persistenza di lungo periodo, aiutando gli attori a “farsi assumere, restare assunti e abusare dell’accesso su larga scala”.
Sovvertire i controlli di sicurezza dell’AI (jailbreaking)
Microsoft segnala sperimentazioni attive per aggirare le protezioni dei modelli, inclusi:
- Riformulazione dei prompt e concatenamento di istruzioni multi-step
- Abuso di prompt in stile system/developer
- Jailbreak basati sui ruoli (ad esempio: “Rispondi come un analista di cybersecurity affidabile”) per ottenere indicazioni soggette a restrizioni
Trend emergente: sperimentazione con agentic AI
Pur non essendo ancora osservata su larga scala, Microsoft rileva le prime sperimentazioni con agentic AI per decision-making iterativo ed esecuzione di task, con il potenziale di portare a un tradecraft più adattivo che complica rilevamento e risposta.
Impatto su amministratori IT e utenti finali
- Maggiore volume e qualità del phishing aumenta il rischio di furto credenziali e compromissione guidata dall’helpdesk.
- Sfruttamento più rapido e scelta più veloce degli strumenti comprimono le finestre di risposta dopo la disclosure di una vulnerabilità.
- Maggiore rischio “tipo insider” tramite scenari di contractor/lavoratori fraudolenti e abuso di accessi legittimi.
Azioni / prossimi passi
- Rafforzare identità e accesso: applicare controlli resistenti all’MFA dove possibile, usare Conditional Access e limitare rigorosamente i privilegi.
- Rafforzare la verifica in fase di assunzione/onboarding di contractor: validare identità, postura del dispositivo e confini di accesso per lavoratori da remoto.
- Aumentare la resilienza al phishing: formazione utenti più controlli tecnici (safe links/attachments, impersonation protection).
- Monitorare pattern di accesso anomali coerenti con comportamenti di lavoratori esternalizzati/fraudolenti (geo insolita, spostamenti impossibili, strumenti atipici).
- Sfruttare le rilevazioni e le investigazioni di Microsoft Defender evidenziate da Microsoft per rilevare, correggere e rispondere ad attività abilitate dall’AI.
Microsoft sottolinea che l’AI può amplificare anche i difensori, se abbinata a controlli solidi, rilevazioni guidate dall’intelligence e iniziative coordinate di disruption.
Hai bisogno di aiuto con Security?
I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.
Parla con un espertoResta aggiornato sulle tecnologie Microsoft