Security

AI agenti i Zero Trust: Microsoft Cyber Pulse upozorenje

3 min čitanja

Sažetak

Microsoftov izveštaj Cyber Pulse upozorava da su AI agenti već široko prisutni u velikim kompanijama, ali da njihovo brzo usvajanje nadmašuje sposobnost organizacija da ih evidentiraju, kontrolišu i zaštite. Posebno zabrinjava rast „shadow AI“ fenomena, jer gotovo trećina zaposlenih koristi neodobrene agente, što povećava rizik od curenja podataka, kršenja politika i zloupotrebe pristupa — zbog čega Zero Trust pristup i potpuna vidljivost postaju ključni za bezbednost.

Trebate pomoć sa Security?Razgovarajte sa stručnjakom

Uvod: zašto je ovo važno sada

AI agenti više nisu eksperimentalni — ugrađeni su u svakodnevne tokove rada u prodaji, finansijama, bezbednosnim operacijama i korisničkoj podršci. Microsoft-ov najnoviji izveštaj Cyber Pulse ukazuje na kritičan jaz: mnoge organizacije usvajaju agente brže nego što mogu da ih popišu, upravljaju i obezbede. Za IT i security timove, neposredni izazov je vidljivost — jer ne možete zaštititi (niti auditovati) ono što ne možete da vidite.

Šta je novo / ključni nalazi iz izveštaja

AI agenti su postali mainstream — i nisu ograničeni na developere

  • 80%+ Fortune 500 organizacija koristi aktivne AI agente, često napravljene uz low-code/no-code alate.
  • Usvajanje obuhvata industrije (posebno software/technology, manufacturing, financial services i retail) i globalne regione.
  • Agenti sve češće rade u autonomnim režimima, preduzimajući akcije uz minimalno ljudsko učešće — što menja profil rizika u odnosu na tradicionalne aplikacije.

Novi „slepi ugao“: „shadow AI“

Microsoft navodi da mnogi lideri ne mogu da odgovore ni na osnovna pitanja:

  • Koliko agenata postoji u okviru cele organizacije?
  • Ko je njihov vlasnik?
  • Kojim podacima i sistemima pristupaju?
  • Koji su odobreni (sanctioned), a koji neodobreni (unsanctioned)?

Ovo nije teorijski problem. Izveštaj navodi da je 29% zaposlenih koristilo neodobrene AI agente za poslovne zadatke — uvodeći nove puteve za izlaganje podataka, kršenja politika i zloupotrebu nasleđenih dozvola.

Zero Trust principi — sada primenjeni na non-human korisnike u velikom obimu

Izveštaj naglašava doslednu primenu postojećih Zero Trust principa na agente:

  • Least privilege access (agenti dobijaju samo ono što im je potrebno)
  • Explicit verification (validacija identiteta i konteksta za zahteve za pristup)
  • Assume compromise (dizajn za scenario kompromitovanja i brzo obuzdavanje)

Observability je prvi korak: pet obaveznih sposobnosti

Microsoft navodi pet ključnih sposobnosti za izgradnju stvarnog observability i governance okvira za AI agente:

  1. Registry: centralizovani inventar/„source of truth“ za sve agente (uključujući third-party i shadow)
  2. Access control: kontrole zasnovane na identitetu i politikama, uz dosledno sprovođenje least privilege pristupa
  3. Visualization: dashboard-i/telemetrija za razumevanje ponašanja, zavisnosti i rizika
  4. Interoperability: konzistentan governance kroz Microsoft, open-source i third-party ekosisteme
  5. Security: zaštite za rano otkrivanje zloupotrebe, drift-a i kompromitovanja

Uticaj na IT administratore i krajnje korisnike

  • Identitet postaje kontrolna ravan za agente: tretirajte agente kao zaposlene ili service accounts, uz upravljan pristup i odgovornost.
  • Pritisak usklađenosti i audita raste, posebno u regulisanim sektorima (finansije, zdravstvo, javni sektor).
  • Krajnji korisnici će nastaviti da usvajaju alate ako odobrene opcije nisu dostupne — zbog čega su enablement i guardrails zajedno ključni.

Preporučene aktivnosti / sledeći koraci

  • Odmah uspostavite pristup za agent inventory/registry (krenite od odobrenih platformi i proširite na otkrivanje neodobrene upotrebe).
  • Definišite ownership i lifecycle (kreiranje, odobravanje, change control, povlačenje/retirement) za agente — governance nije isto što i security.
  • Sprovedite least privilege za identitete agenata (pregledajte access paths, secrets, connector-e i data scope).
  • Implementirajte monitoring i telemetry radi detekcije anomalnog ponašanja i access drift-a.
  • Uskladite cross-functional tim (IT, security, legal, compliance, HR, business owners) da tretira AI rizik kao enterprise risk.

Trebate pomoć sa Security?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

Zero TrustAI agentsgovernanceobservabilityrisk management

Povezani članci

Security

Trivy kompromitacija lanca snabdevanja: Defender

Microsoft je objavio smernice za detekciju, istragu i ublažavanje kompromitacije Trivy lanca snabdevanja iz marta 2026, koja je pogodila Trivy binarni fajl i povezane GitHub Actions. Incident je važan jer je zloupotrebio pouzdane CI/CD bezbednosne alate za krađu akreditiva iz build pipeline-ova, cloud okruženja i developerskih sistema, dok je izgledalo kao da radi normalno.

Security

Upravljanje AI agentima: usklađivanje namere

Microsoft predstavlja model upravljanja za AI agente koji usklađuje korisničku, razvojnu, ulogama zasnovanu i organizacionu nameru. Ovaj okvir pomaže preduzećima da agente održe korisnim, bezbednim i usklađenim tako što definiše granice ponašanja i jasan redosled prioriteta kada dođe do konflikta.

Security

Defender predictive shielding zaustavlja GPO ransomware

Microsoft je opisao stvarni slučaj ransomware napada u kome je Defender predictive shielding otkrio zloupotrebu Group Policy Object (GPO) mehanizama pre početka enkripcije. Ojačavanjem propagacije GPO-a i prekidanjem kompromitovanih naloga, Defender je blokirao oko 97% pokušaja enkripcije i sprečio da bilo koji uređaj bude šifrovan putem GPO kanala isporuke.

Security

Microsoft agentic AI bezbednost na RSAC 2026

Microsoft je na RSAC 2026 predstavio sveobuhvatnu strategiju za bezbednost agentic AI sistema, uključujući skoru opštu dostupnost platforme Agent 365 od 1. maja, uz integraciju sa Defender, Entra i Purview alatima za upravljanje, zaštitu pristupa i sprečavanje prekomernog deljenja podataka. Ovo je važno jer kompanijama donosi bolju vidljivost AI rizika, otkrivanje neovlašćene upotrebe AI aplikacija i jaču zaštitu identiteta i podataka kako se AI agenti sve brže uvode u poslovna okruženja.

Security

Microsoft CTI-REALM open-source benchmark za AI detekciju

Microsoft je predstavio CTI-REALM, open-source benchmark koji proverava da li AI agenti mogu da obavljaju stvaran detection engineering posao, od analize threat intelligence izveštaja do pravljenja i validacije detekcionih pravila. To je važno za SOC i bezbednosne timove jer pomera procenu AI alata sa teorijskog cyber znanja na merljive operativne rezultate u realnim okruženjima poput Linux endpointa, AKS-a i Azure infrastrukture.

Security

Microsoft Zero Trust za AI: radionica i arhitektura

Microsoft je predstavio smernice „Zero Trust for AI“ i proširio svoj Zero Trust Workshop namenskim AI stubom, kako bi organizacije lakše procenile i uvele bezbednosne kontrole za modele, agente, podatke i automatizovane odluke. Ovo je važno jer kompanijama daje strukturisan okvir za zaštitu od rizika kao što su prompt injection, data poisoning i preširoka ovlašćenja, uz bolju usklađenost bezbednosnih, IT i poslovnih timova.