Security

AI u sajber napadima: uvidi Microsoft Threat Intelligence

3 min čitanja

Sažetak

Microsoft Threat Intelligence upozorava da napadači danas najčešće koriste AI kao akcelerator postojećih sajber napada, a ne kao potpuno novo oružje: za brže pravljenje phishing poruka, analizu ukradenih podataka, generisanje koda i izviđanje ranjivosti. Ovo je važno za organizacije jer AI smanjuje trošak i vreme izvođenja napada, pa odbrambeni timovi moraju da prilagode detekciju i procese zaštite svetu u kom su napadi brži, uverljiviji i lakši za skaliranje.

Trebate pomoć sa Security?Razgovarajte sa stručnjakom

Uvod: Zašto je ovo važno sada

Preduzeća brzo integrišu AI kako bi unapredila produktivnost, ali napadači usvajaju iste tehnologije da bi povećali brzinu, obim i ponovljivost sajber operacija. Microsoft Threat Intelligence ističe da je danas najčešća zlonamerna upotreba generisanje sadržaja i koda vođeno jezičkim modelima—smanjujući tehničko trenje dok ljudi i dalje kontrolišu ciljanje i izvršavanje. Za IT timove, ključna poruka je da AI ne mora nužno da stvara „nove” puteve napada, ali značajno ubrzava postojeće i može povećati operativnu postojanost.

Šta je novo: Kako napadači operacionalizuju AI

Microsoftova zapažanja razlikuju AI kao akcelerator (najčešće danas) naspram AI kao oružje (u nastajanju).

AI kao akcelerator kroz životni ciklus napada

Akteri pretnji koriste generativni AI da:

  • Sastavljaju i lokalizuju phishing/socijalni inženjering sadržaj (uverljiviji mamci, brže iteracije).
  • Sumiraju i trijažiraju ukradene podatke nakon kompromitovanja kako bi brzo identifikovali informacije visoke vrednosti.
  • Generišu, debaguju ili postave osnovu koda (komponente malvera, skripte, šabloni infrastrukture).
  • Ubrzaju izviđanje, uključujući istraživanje ranjivosti i razumevanje putanja eksploatacije iz javno dostupnih CVE-ova.
  • Izgrade uverljive persone analizom oglasa za posao, izdvajajući zahteve uloga i generišući kulturno usklađene artefakte identiteta.

Ključan primer iz prakse u blogu je aktivnost severnokorejskih udaljenih IT radnika (praćena kao Jasper Sleet i Coral Sleet), gde AI podržava falsifikovanje identiteta, socijalni inženjering i dugoročnu postojanost—pomažući akterima da se „zaposle, ostanu zaposleni i zloupotrebljavaju pristup u velikom obimu.”

Potkopavanje AI bezbednosnih kontrola (jailbreaking)

Microsoft navodi aktivna eksperimentisanja sa zaobilaženjem zaštitnih mera modela, uključujući:

  • Preformulisanje promptova i ulančavanje višekorakih instrukcija
  • Zloupotrebu promptova u stilu system/developer
  • Jailbreak zasnovan na ulozi (npr. „Odgovaraj kao pouzdan analitičar sajber bezbednosti”) radi dobijanja ograničenih smernica

Trend u nastajanju: eksperimentisanje sa agentic AI

Iako još nije uočeno u velikom obimu, Microsoft vidi rana eksperimentisanja sa agentic AI za iterativno donošenje odluka i izvršavanje zadataka—što potencijalno vodi ka adaptivnijem napadačkom „tradecraft”-u koji otežava detekciju i odgovor.

Uticaj na IT administratore i krajnje korisnike

  • Veći obim i kvalitet phishing-a povećava rizik od krađe kredencijala i kompromitovanja preko helpdesk-a.
  • Brža eksploatacija i izbor alata skraćuju vremenski prostor za reakciju nakon objave ranjivosti.
  • Veći rizik nalik insajderu kroz lažne scenarije angažovanja izvođača/radnika i zloupotrebu legitimnog pristupa.

Akcione stavke / sledeći koraci

  • Ojačajte identitet i pristup: nametnite kontrole otporne na MFA gde je moguće, primenite Conditional Access i strogo ograničite privilegije.
  • Pojačajte verifikaciju pri zapošljavanju/uključivanju izvođača: validirajte identitete, posture uređaja i granice pristupa za udaljene radnike.
  • Povećajte otpornost na phishing: obuka korisnika uz tehničke kontrole (safe links/attachments, zaštita od imitacije).
  • Pratite anomalne obrasce pristupa konzistentne sa ponašanjem eksternih/lažnih radnika (neobična geo lokacija, „impossible travel”, atipični alati).
  • Iskoristite Microsoft Defender detekcije i istrage koje Microsoft ističe radi otkrivanja, sanacije i odgovora na aktivnosti omogućene AI.

Microsoft naglašava da AI može da pojača i odbranu—kada je uparen sa snažnim kontrolama, detekcijama zasnovanim na obaveštajnim podacima i koordinisanim naporima na ometanju napada.

Trebate pomoć sa Security?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

Microsoft Threat IntelligenceDefenderphishinggenerative AIidentity security

Povezani članci

Security

Trivy kompromitacija lanca snabdevanja: Defender

Microsoft je objavio smernice za detekciju, istragu i ublažavanje kompromitacije Trivy lanca snabdevanja iz marta 2026, koja je pogodila Trivy binarni fajl i povezane GitHub Actions. Incident je važan jer je zloupotrebio pouzdane CI/CD bezbednosne alate za krađu akreditiva iz build pipeline-ova, cloud okruženja i developerskih sistema, dok je izgledalo kao da radi normalno.

Security

Upravljanje AI agentima: usklađivanje namere

Microsoft predstavlja model upravljanja za AI agente koji usklađuje korisničku, razvojnu, ulogama zasnovanu i organizacionu nameru. Ovaj okvir pomaže preduzećima da agente održe korisnim, bezbednim i usklađenim tako što definiše granice ponašanja i jasan redosled prioriteta kada dođe do konflikta.

Security

Defender predictive shielding zaustavlja GPO ransomware

Microsoft je opisao stvarni slučaj ransomware napada u kome je Defender predictive shielding otkrio zloupotrebu Group Policy Object (GPO) mehanizama pre početka enkripcije. Ojačavanjem propagacije GPO-a i prekidanjem kompromitovanih naloga, Defender je blokirao oko 97% pokušaja enkripcije i sprečio da bilo koji uređaj bude šifrovan putem GPO kanala isporuke.

Security

Microsoft agentic AI bezbednost na RSAC 2026

Microsoft je na RSAC 2026 predstavio sveobuhvatnu strategiju za bezbednost agentic AI sistema, uključujući skoru opštu dostupnost platforme Agent 365 od 1. maja, uz integraciju sa Defender, Entra i Purview alatima za upravljanje, zaštitu pristupa i sprečavanje prekomernog deljenja podataka. Ovo je važno jer kompanijama donosi bolju vidljivost AI rizika, otkrivanje neovlašćene upotrebe AI aplikacija i jaču zaštitu identiteta i podataka kako se AI agenti sve brže uvode u poslovna okruženja.

Security

Microsoft CTI-REALM open-source benchmark za AI detekciju

Microsoft je predstavio CTI-REALM, open-source benchmark koji proverava da li AI agenti mogu da obavljaju stvaran detection engineering posao, od analize threat intelligence izveštaja do pravljenja i validacije detekcionih pravila. To je važno za SOC i bezbednosne timove jer pomera procenu AI alata sa teorijskog cyber znanja na merljive operativne rezultate u realnim okruženjima poput Linux endpointa, AKS-a i Azure infrastrukture.

Security

Microsoft Zero Trust za AI: radionica i arhitektura

Microsoft je predstavio smernice „Zero Trust for AI“ i proširio svoj Zero Trust Workshop namenskim AI stubom, kako bi organizacije lakše procenile i uvele bezbednosne kontrole za modele, agente, podatke i automatizovane odluke. Ovo je važno jer kompanijama daje strukturisan okvir za zaštitu od rizika kao što su prompt injection, data poisoning i preširoka ovlašćenja, uz bolju usklađenost bezbednosnih, IT i poslovnih timova.