Security

Copilot Studio bezbednost: 10 grešaka u konfiguraciji

3 min čitanja

Sažetak

Microsoft je objavio listu od 10 najčešćih bezbednosnih grešaka u konfiguraciji Copilot Studio agenata, uključujući preširoko deljenje, izostanak obavezne autentikacije, rizične HTTP akcije i moguće putanje za eksfiltraciju podataka putem imejla. Ovo je važno jer takve greške mogu otvoriti nove puteve napada i curenja podataka, a Microsoft sada nudi i konkretne Defender Advanced Hunting upite kako bi timovi lakše otkrili i ispravili ove rizike.

Trebate pomoć sa Security?Razgovarajte sa stručnjakom

Uvod: zašto je ovo važno

Copilot Studio agenti se brzo ugrađuju u operativne tokove rada—povlače podatke, pokreću akcije i u velikom obimu komuniciraju sa internim sistemima. Ta ista automatizacija otvara i nove putanje napada kada su agenti pogrešno deljeni, rade sa prekomernim privilegijama ili zaobilaze standardne kontrole upravljanja (governance). Microsoft-ov tim Defender Security Research vidi ove probleme „u praksi“, često bez očiglednih upozorenja, zbog čega su proaktivno otkrivanje i upravljanje bezbednosnim stanjem (posture) od ključne važnosti.

Šta je novo: 10 čestih rizika kod Copilot Studio agenata (i kako da ih detektujete)

Microsoft je objavio praktičnu top-10 listu pogrešnih konfiguracija agenata i mapirao svaku na Microsoft Defender Advanced Hunting Community Queries (Security portal → Advanced huntingQueriesCommunity queries → folder AI Agent). Ključni rizici uključuju:

  1. Preširoko deljenje (cela organizacija ili velike grupe) – povećava napadnu površinu i omogućava nenamernu upotrebu.
  2. Bez obavezne autentikacije – kreira javne/anonimne ulazne tačke i potencijalno curenje podataka.
  3. Rizične HTTP Request akcije – pozivi ka connector endpoint-ima, non-HTTPS ili nestandardnim portovima mogu zaobići connector governance i kontrole identiteta.
  4. Putanje eksfiltracije podataka putem email-a – agenti koji šalju email ka AI-kontrolisanim vrednostima ili eksternim sandučićima mogu omogućiti prompt-injection-om vođenu eksfiltraciju.
  5. Neaktivni agenti/akcije/veze – zastarele komponente postaju skrivena napadna površina sa zaostalim privilegijama.
  6. Autentikacija autora (maker) – narušava razdvajanje dužnosti i može omogućiti eskalaciju privilegija.
  7. Hard-coded kredencijali u temama/akcijama – povećava verovatnoću curenja i ponovne upotrebe kredencijala.
  8. Konfigurisani alati Model Context Protocol (MCP) – mogu uvesti nedokumentovane putanje pristupa i neželjene interakcije sa sistemima.
  9. Generative orchestration bez instrukcija – veći rizik od odstupanja ponašanja (behavior drift) i zloupotrebe prompt-ova.
  10. Agenti bez vlasnika (orphaned) (nema aktivnog owner-a) – slabo upravljanje i neobrađen pristup tokom vremena.

Uticaj na IT administratore i bezbednosne timove

  • Jaz u vidljivosti: Ove pogrešne konfiguracije često ne izgledaju zlonamerno tokom kreiranja i možda neće aktivirati tradicionalna upozorenja.
  • Izlaganje identiteta i podataka: Neautentikovan pristup, maker kredencijali i široko deljenje mogu pretvoriti agenta u lako dostupnu tačku za ulazak u organizacione podatke.
  • Zaobilaženje governance-a: Direktne HTTP akcije mogu zaobići zaštite Power Platform connector-a (validacija, throttling, sprovođenje identiteta).
  • Operativni rizik: Agenti bez vlasnika ili neaktivni agenti čuvaju poslovnu logiku i pristup dugo nakon što su vlasništvo i namera nejasni.

Akcione stavke / sledeći koraci

  1. Pokrenite AI Agent Community Queries odmah i uspostavite početni baseline rezultata (počnite sa: deljenje na nivou organizacije, agenti bez autentikacije, autentikacija autora, hard-coded kredencijali).
  2. Zategnite deljenje i autentikaciju: primenite least-privilege pristup i zahtevajte autentikaciju za sve produkcione agente.
  3. Pregledajte upotrebu HTTP Request-a: dajte prednost governed connector-ima; označite non-HTTPS i nestandardne portove za hitnu sanaciju.
  4. Kontrolišite scenarije odlaznog email-a: ograničite eksterne primaoce, validirajte dinamičke ulaze i nadgledajte obrasce nalik prompt-injection-u.
  5. Uspostavite governance životnog ciklusa: inventarišite agente, uklonite ili dodelite novog owner-a orphaned agentima i povucite neaktivne veze/akcije.

Ako konfiguraciju agenata tretirate kao deo svog bezbednosnog stanja—i kontinuirano „lovite“ ove obrasce—možete smanjiti izloženost pre nego što napadači operacionalizuju zloupotrebu.

Trebate pomoć sa Security?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

Copilot StudioMicrosoft DefenderAdvanced HuntingAI securityPower Platform governance

Povezani članci

Security

Trivy kompromitacija lanca snabdevanja: Defender

Microsoft je objavio smernice za detekciju, istragu i ublažavanje kompromitacije Trivy lanca snabdevanja iz marta 2026, koja je pogodila Trivy binarni fajl i povezane GitHub Actions. Incident je važan jer je zloupotrebio pouzdane CI/CD bezbednosne alate za krađu akreditiva iz build pipeline-ova, cloud okruženja i developerskih sistema, dok je izgledalo kao da radi normalno.

Security

Upravljanje AI agentima: usklađivanje namere

Microsoft predstavlja model upravljanja za AI agente koji usklađuje korisničku, razvojnu, ulogama zasnovanu i organizacionu nameru. Ovaj okvir pomaže preduzećima da agente održe korisnim, bezbednim i usklađenim tako što definiše granice ponašanja i jasan redosled prioriteta kada dođe do konflikta.

Security

Defender predictive shielding zaustavlja GPO ransomware

Microsoft je opisao stvarni slučaj ransomware napada u kome je Defender predictive shielding otkrio zloupotrebu Group Policy Object (GPO) mehanizama pre početka enkripcije. Ojačavanjem propagacije GPO-a i prekidanjem kompromitovanih naloga, Defender je blokirao oko 97% pokušaja enkripcije i sprečio da bilo koji uređaj bude šifrovan putem GPO kanala isporuke.

Security

Microsoft agentic AI bezbednost na RSAC 2026

Microsoft je na RSAC 2026 predstavio sveobuhvatnu strategiju za bezbednost agentic AI sistema, uključujući skoru opštu dostupnost platforme Agent 365 od 1. maja, uz integraciju sa Defender, Entra i Purview alatima za upravljanje, zaštitu pristupa i sprečavanje prekomernog deljenja podataka. Ovo je važno jer kompanijama donosi bolju vidljivost AI rizika, otkrivanje neovlašćene upotrebe AI aplikacija i jaču zaštitu identiteta i podataka kako se AI agenti sve brže uvode u poslovna okruženja.

Security

Microsoft CTI-REALM open-source benchmark za AI detekciju

Microsoft je predstavio CTI-REALM, open-source benchmark koji proverava da li AI agenti mogu da obavljaju stvaran detection engineering posao, od analize threat intelligence izveštaja do pravljenja i validacije detekcionih pravila. To je važno za SOC i bezbednosne timove jer pomera procenu AI alata sa teorijskog cyber znanja na merljive operativne rezultate u realnim okruženjima poput Linux endpointa, AKS-a i Azure infrastrukture.

Security

Microsoft Zero Trust za AI: radionica i arhitektura

Microsoft je predstavio smernice „Zero Trust for AI“ i proširio svoj Zero Trust Workshop namenskim AI stubom, kako bi organizacije lakše procenile i uvele bezbednosne kontrole za modele, agente, podatke i automatizovane odluke. Ovo je važno jer kompanijama daje strukturisan okvir za zaštitu od rizika kao što su prompt injection, data poisoning i preširoka ovlašćenja, uz bolju usklađenost bezbednosnih, IT i poslovnih timova.