Security

AI observability za bezbednost GenAI i agentic AI

3 min čitanja

Sažetak

Microsoft poručuje da za bezbednost generativnog i agentic AI više nije dovoljan klasičan monitoring performansi, već je potreban AI observability kao deo Secure Development Lifecycle-a. To je važno jer AI sistemi mogu delovati „zdravo“ po standardnim metrikama, a ipak biti kompromitovani kroz zatrovan sadržaj, neproverene izvore i neautorizovane akcije, pa organizacije moraju da prate AI-specifične signale poput konteksta, porekla sadržaja i prompt/response logova.

Audio sažetak

0:00--:--
Trebate pomoć sa Security?Razgovarajte sa stručnjakom

Uvod

Kako generativni AI i agentic AI prelaze iz pilot projekata u produkciju, postaju deo ključnih poslovnih tokova rada, često sa pristupom osetljivim podacima, spoljnim alatima i automatizovanim akcijama. Microsoft-ove najnovije bezbednosne smernice jasno poručuju da tradicionalni monitoring dostupnosti i performansi više nije dovoljan za ove sisteme.

Šta je novo

Microsoft proširuje razgovor o bezbednom razvoju AI tako što pozicionira AI observability kao ključni zahtev unutar svog Secure Development Lifecycle (SDL).

Zašto tradicionalni monitoring nije dovoljan

Konvencionalni observability fokusira se na determinističke signale aplikacija kao što su:

  • Dostupnost
  • Latencija
  • Propusnost
  • Stope grešaka

Kod AI sistema, ti signali mogu ostati u zdravim granicama čak i kada je sistem kompromitovan. Microsoft ističe scenarije u kojima AI agent koristi zatrovan ili zlonameran eksterni sadržaj, prosleđuje ga između agenata i pokreće neautorizovane akcije bez generisanja konvencionalnih otkaza.

Šta AI observability treba da obuhvati

Microsoft navodi da AI observability mora da evoluira dalje od standardnih logova, metrika i trace-ova kako bi obuhvatio AI-native signale, uključujući:

  • Context assembly: Koja su uputstva, preuzeti sadržaj, istorija konverzacije i izlazi alata korišćeni za određeno izvršavanje
  • Source provenance and trust classification: Odakle je sadržaj potekao i da li mu treba verovati
  • Prompt and response logging: Ključno za identifikovanje prompt injection napada, multi-turn jailbreak tehnika i promena u ponašanju modela
  • Agent lifecycle-level correlation: Stabilan identifikator kroz multi-turn konverzacije i interakcije agenata
  • AI-specific metrics: Upotreba tokena, obim preuzimanja, broj koraka agenta i promene ponašanja nakon ažuriranja modela
  • End-to-end traces: Vidljivost od početnog prompt-a do upotrebe alata i konačnog izlaza

Dva dodatna stuba: evaluacija i upravljanje

Microsoft takođe proširuje observability sledećim elementima:

  • Evaluation: Merenje kvaliteta izlaza, grounding-a, usklađenosti sa instrukcijama i ispravne upotrebe alata
  • Governance: Korišćenje telemetrije i kontrola za podršku sprovođenju politika, mogućnosti revizije i odgovornosti

Zašto je ovo važno za IT i bezbednosne timove

Za administratore, bezbednosne timove i vlasnike AI platformi, ove smernice potvrđuju da su AI sistemima potrebne bezbednosne kontrole prilagođene probabilističkom i višekoračnom ponašanju. Bez bogatije telemetrije, timovi mogu imati poteškoće da otkriju prompt injection napade, prate putanje eksfiltracije podataka, potvrde usklađenost sa politikama ili objasne zašto se agent ponašao neočekivano.

Ovo je posebno relevantno za organizacije koje uvode copilots, prilagođene AI agente, retrieval-augmented generation aplikacije ili autonomne tokove rada povezane sa Microsoft 365, poslovnim podacima ili eksternim API-jima.

Preporučeni sledeći koraci

Organizacije bi trebalo da preispitaju postojeće prakse monitoringa AI sistema i procene da li beleže dovoljno detalja za istraživanje AI-specifičnih rizika.

Ključne aktivnosti uključuju:

  • Popis produkcionih AI aplikacija, copilots rešenja i agenata
  • Omogućavanje logovanja za prompt-ove, odgovore, pozive alata i preuzeti sadržaj gde je to primereno
  • Očuvanje trace-ovanja na nivou konverzacije kroz multi-turn i multi-agent tokove rada
  • Dodavanje evaluacionih procesa za grounding, kvalitet i usklađenost sa politikama
  • Usklađivanje AI observability sa procesima upravljanja, revizije i odgovora na incidente

Microsoft-ova poruka je jasna: ako AI postaje deo produkcione infrastrukture, observability mora postati deo osnovnog bezbednosnog standarda.

Trebate pomoć sa Security?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

SecurityAI observabilityGenerative AIagentic AIgovernance

Povezani članci

Security

Trivy kompromitacija lanca snabdevanja: Defender

Microsoft je objavio smernice za detekciju, istragu i ublažavanje kompromitacije Trivy lanca snabdevanja iz marta 2026, koja je pogodila Trivy binarni fajl i povezane GitHub Actions. Incident je važan jer je zloupotrebio pouzdane CI/CD bezbednosne alate za krađu akreditiva iz build pipeline-ova, cloud okruženja i developerskih sistema, dok je izgledalo kao da radi normalno.

Security

Upravljanje AI agentima: usklađivanje namere

Microsoft predstavlja model upravljanja za AI agente koji usklađuje korisničku, razvojnu, ulogama zasnovanu i organizacionu nameru. Ovaj okvir pomaže preduzećima da agente održe korisnim, bezbednim i usklađenim tako što definiše granice ponašanja i jasan redosled prioriteta kada dođe do konflikta.

Security

Defender predictive shielding zaustavlja GPO ransomware

Microsoft je opisao stvarni slučaj ransomware napada u kome je Defender predictive shielding otkrio zloupotrebu Group Policy Object (GPO) mehanizama pre početka enkripcije. Ojačavanjem propagacije GPO-a i prekidanjem kompromitovanih naloga, Defender je blokirao oko 97% pokušaja enkripcije i sprečio da bilo koji uređaj bude šifrovan putem GPO kanala isporuke.

Security

Microsoft agentic AI bezbednost na RSAC 2026

Microsoft je na RSAC 2026 predstavio sveobuhvatnu strategiju za bezbednost agentic AI sistema, uključujući skoru opštu dostupnost platforme Agent 365 od 1. maja, uz integraciju sa Defender, Entra i Purview alatima za upravljanje, zaštitu pristupa i sprečavanje prekomernog deljenja podataka. Ovo je važno jer kompanijama donosi bolju vidljivost AI rizika, otkrivanje neovlašćene upotrebe AI aplikacija i jaču zaštitu identiteta i podataka kako se AI agenti sve brže uvode u poslovna okruženja.

Security

Microsoft CTI-REALM open-source benchmark za AI detekciju

Microsoft je predstavio CTI-REALM, open-source benchmark koji proverava da li AI agenti mogu da obavljaju stvaran detection engineering posao, od analize threat intelligence izveštaja do pravljenja i validacije detekcionih pravila. To je važno za SOC i bezbednosne timove jer pomera procenu AI alata sa teorijskog cyber znanja na merljive operativne rezultate u realnim okruženjima poput Linux endpointa, AKS-a i Azure infrastrukture.

Security

Microsoft Zero Trust za AI: radionica i arhitektura

Microsoft je predstavio smernice „Zero Trust for AI“ i proširio svoj Zero Trust Workshop namenskim AI stubom, kako bi organizacije lakše procenile i uvele bezbednosne kontrole za modele, agente, podatke i automatizovane odluke. Ovo je važno jer kompanijama daje strukturisan okvir za zaštitu od rizika kao što su prompt injection, data poisoning i preširoka ovlašćenja, uz bolju usklađenost bezbednosnih, IT i poslovnih timova.