Security

Microsoft smernice za otkrivanje zloupotrebe promptova

3 min čitanja

Sažetak

Microsoft je objavio smernice za otkrivanje i reagovanje na zloupotrebu promptova u AI aplikacijama, sa fokusom na direktne napade, извлачење osetljivih podataka i indirektnu prompt injection kroz spoljne izvore poput dokumenata, imejlova i URL-ova. Ovo je važno jer pomaže IT i bezbednosnim timovima da pređu sa procene rizika na aktivan monitoring i obuzdavanje incidenata pre nego što AI sistemi utiču na poslovne odluke ili izlože poverljive informacije.

Trebate pomoć sa Security?Razgovarajte sa stručnjakom

Uvod

Kako organizacije ugrađuju AI asistente i alate za sažimanje u svakodnevne tokove rada, zloupotreba promptova postaje stvaran operativni bezbednosni problem. Microsoft-ove najnovije smernice su važne za IT i bezbednosne timove jer pomeraju razgovor sa planiranja i procene rizika na aktivni monitoring, istragu i obuzdavanje incidenata.

Šta je novo u Microsoft smernicama

Microsoft predstavlja zloupotrebu promptova kao jedan od najvažnijih rizika sa kojima se suočavaju AI aplikacije, u skladu sa OWASP smernicama za LLM bezbednost. Objava se fokusira na to kako rano otkriti zloupotrebu i odgovoriti pre nego što ona utiče na poslovne odluke ili izloži osetljive podatke.

Ključni scenariji zloupotrebe promptova koji su obuhvaćeni

  • Direktno prepisivanje prompta: Pokušaji da se AI alat natera da ignoriše sistemska uputstva ili bezbednosne kontrole.
  • Ekstraktivna zloupotreba prompta: Promptovi dizajnirani da izvuku osetljive ili privatne podatke izvan predviđenih granica sažimanja.
  • Indirektna prompt injection: Skrivena uputstva ugrađena u spoljašnji sadržaj kao što su dokumenti, e-poruke, veb stranice ili URL fragmenti koji utiču na AI izlaz.

Značajan primer u članku je AI alat za sažimanje koji uključuje ceo URL u kontekst prompta. Ako je zlonamerno uputstvo skriveno posle # fragmenta u linku, AI može protumačiti taj tekst kao deo prompta i generisati pristrasan ili obmanjujući izlaz, iako korisnik nije uradio ništa očigledno nebezbedno.

Istaknute Microsoft bezbednosne kontrole

Microsoft povezuje ovaj priručnik za otkrivanje i odgovor sa nekoliko postojećih alata:

  • Defender for Cloud Apps za otkrivanje i blokiranje neodobrenih AI aplikacija
  • Microsoft Purview DSPM and DLP za identifikovanje rizika od izlaganja osetljivih podataka i beleženje interakcija
  • CloudAppEvents telemetry za isticanje sumnjivih aktivnosti povezanih sa AI
  • Entra ID Conditional Access za ograničavanje koji korisnici, uređaji i aplikacije mogu da pristupe internim resursima
  • AI safety guardrails and input sanitization za uklanjanje skrivenih uputstava i sprovođenje granica modela

Zašto je ovo važno za IT administratore

Za administratore, ključna poruka je da tradicionalna bezbednosna vidljivost možda nije dovoljna za AI-om omogućene tokove rada. Zloupotreba promptova često ostavlja malo očiglednih tragova jer se oslanja na manipulaciju prirodnim jezikom, a ne na malware ili exploit kod.

To znači da su timovima potrebni:

  • Bolje beleženje AI interakcija
  • Vidljivost nad odobrenim naspram neodobrenih AI alata
  • Politike koje ograničavaju AI pristup osetljivom sadržaju
  • Edukacija korisnika o sumnjivim linkovima, dokumentima i AI-generisanim izlazima

Preporučeni sledeći koraci

IT i bezbednosni timovi treba da pregledaju AI aplikacije koje su već u upotrebi, posebno alate trećih strana ili neodobrene alate. Microsoft-ove smernice predlažu kombinovanje upravljanja, telemetry, DLP, Conditional Access i guardrails kako bi zloupotreba promptova mogla brzo da se otkrije i obuzda pre nego što utiče na poslovne procese ili rukovanje osetljivim podacima.

Ukratko, ovo je podsetnik da obezbeđivanje AI više nije samo pitanje modelovanja pretnji u fazi dizajna; sada zahteva operativni monitoring i disciplinu incident response-a.

Trebate pomoć sa Security?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

SecurityAI securityprompt injectionMicrosoft PurviewDefender for Cloud Apps

Povezani članci

Security

Trivy kompromitacija lanca snabdevanja: Defender

Microsoft je objavio smernice za detekciju, istragu i ublažavanje kompromitacije Trivy lanca snabdevanja iz marta 2026, koja je pogodila Trivy binarni fajl i povezane GitHub Actions. Incident je važan jer je zloupotrebio pouzdane CI/CD bezbednosne alate za krađu akreditiva iz build pipeline-ova, cloud okruženja i developerskih sistema, dok je izgledalo kao da radi normalno.

Security

Upravljanje AI agentima: usklađivanje namere

Microsoft predstavlja model upravljanja za AI agente koji usklađuje korisničku, razvojnu, ulogama zasnovanu i organizacionu nameru. Ovaj okvir pomaže preduzećima da agente održe korisnim, bezbednim i usklađenim tako što definiše granice ponašanja i jasan redosled prioriteta kada dođe do konflikta.

Security

Defender predictive shielding zaustavlja GPO ransomware

Microsoft je opisao stvarni slučaj ransomware napada u kome je Defender predictive shielding otkrio zloupotrebu Group Policy Object (GPO) mehanizama pre početka enkripcije. Ojačavanjem propagacije GPO-a i prekidanjem kompromitovanih naloga, Defender je blokirao oko 97% pokušaja enkripcije i sprečio da bilo koji uređaj bude šifrovan putem GPO kanala isporuke.

Security

Microsoft agentic AI bezbednost na RSAC 2026

Microsoft je na RSAC 2026 predstavio sveobuhvatnu strategiju za bezbednost agentic AI sistema, uključujući skoru opštu dostupnost platforme Agent 365 od 1. maja, uz integraciju sa Defender, Entra i Purview alatima za upravljanje, zaštitu pristupa i sprečavanje prekomernog deljenja podataka. Ovo je važno jer kompanijama donosi bolju vidljivost AI rizika, otkrivanje neovlašćene upotrebe AI aplikacija i jaču zaštitu identiteta i podataka kako se AI agenti sve brže uvode u poslovna okruženja.

Security

Microsoft CTI-REALM open-source benchmark za AI detekciju

Microsoft je predstavio CTI-REALM, open-source benchmark koji proverava da li AI agenti mogu da obavljaju stvaran detection engineering posao, od analize threat intelligence izveštaja do pravljenja i validacije detekcionih pravila. To je važno za SOC i bezbednosne timove jer pomera procenu AI alata sa teorijskog cyber znanja na merljive operativne rezultate u realnim okruženjima poput Linux endpointa, AKS-a i Azure infrastrukture.

Security

Microsoft Zero Trust za AI: radionica i arhitektura

Microsoft je predstavio smernice „Zero Trust for AI“ i proširio svoj Zero Trust Workshop namenskim AI stubom, kako bi organizacije lakše procenile i uvele bezbednosne kontrole za modele, agente, podatke i automatizovane odluke. Ovo je važno jer kompanijama daje strukturisan okvir za zaštitu od rizika kao što su prompt injection, data poisoning i preširoka ovlašćenja, uz bolju usklađenost bezbednosnih, IT i poslovnih timova.