Security

Copilot Studio bezbednost: 10 grešaka i Defender

3 min čitanja

Sažetak

Microsoft upozorava na 10 čestih pogrešnih konfiguracija u Copilot Studio agentima — poput preširokog deljenja, izostanka obavezne autentifikacije, rizičnih HTTP zahteva i mogućih putanja za eksfiltraciju podataka putem e-pošte — koje mogu otvoriti ozbiljne bezbednosne rizike u produkcionim okruženjima. Važnost vesti je u tome što Defender Advanced Hunting sada nudi gotove Community Queries za rano otkrivanje ovih problema, pa timovi mogu brže da identifikuju i uklone izloženosti pre nego što budu zloupotrebljene.

Trebate pomoć sa Security?Razgovarajte sa stručnjakom

Uvod: zašto je ovo važno

Copilot Studio agenti se brzo ugrađuju u operativne tokove rada—pretražuju podatke, pokreću akcije i komuniciraju sa sistemima u velikim razmerama. Defender Security Research Team upozorava da male, dobronamerne konfiguracione odluke (široko deljenje, slaba autentifikacija, rizične akcije) mogu neprimetno postati tačke izloženosti sa velikim uticajem. Dobra vest: Microsoft Defender može da vam pomogne da ova stanja otkrijete rano koristeći Advanced Hunting Community Queries.

Šta je novo: 10 pogrešnih konfiguracija koje vredi „loviti“

Microsoft je objavio „one-page view“ najčešćih rizika za Copilot Studio agente uočenih u stvarnim okruženjima, zajedno sa odgovarajućim detekcijama u Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → AI Agent folder).

Istaknuti ključni rizici uključuju:

  • Preširoko deljenje (podeljeno sa celom organizacijom ili širokim grupama): povećava napadnu površinu i nenamernu upotrebu.
  • Bez obavezne autentifikacije: pretvara agenta u javnu/anonimnu ulaznu tačku koja može izložiti interne podatke ili logiku.
  • Rizične HTTP Request akcije: korišćenje ne-HTTPS, nestandardnih portova ili direktnih poziva ka endpoint-ima koje bi trebalo upravljati kroz konektore—zaobilazeći politike i zaštite identiteta.
  • Putanje eksfiltracije podataka putem e-pošte: agenti koji mogu slati e-poštu na ulaze pod kontrolom napadača ili u eksterne sandučiće (posebno opasno uz prompt injection).
  • Uspavani agenti, akcije ili konekcije: „zaboravljeni“ objavljeni agenti i zastarele konekcije stvaraju skriven, privilegovan pristup.
  • Autentifikacija autora (maker) u produkciji: narušava razdvajanje dužnosti i može efektivno raditi sa povišenim maker dozvolama.
  • Hard-coded kredencijali u temama/akcijama: direktan rizik od curenja kredencijala.
  • Konfigurisani Model Context Protocol (MCP) alati: mogu uvesti nedokumentovane putanje pristupa i nenamerne interakcije sa sistemima.
  • Generative orchestration bez instrukcija: povećava verovatnoću odstupanja ponašanja (behavior drift) ili prompt-vođenih nebezbednih akcija.
  • Orphaned agenti (bez aktivnog vlasnika): slabo upravljanje, nema odgovornog održavaoca i veći rizik od zastarele logike.

Uticaj na IT administratore i bezbednosne timove

Za administratore koji upravljaju Power Platform i Microsoft 365 bezbednošću, ključna poruka je da je bezbednosni posture agenata sada deo upravljanja identitetom i podacima. Pogrešne konfiguracije mogu otvoriti nove putanje pristupa koje tradicionalni inventari aplikacija, pretpostavke o conditional access ili politike konektora možda ne obuhvataju u potpunosti—posebno kada maker-i brzo kreiraju agente.

Akcioni koraci / naredni potezi

  1. Pokrenite Community Queries u Defender’s Advanced Hunting (AI Agent folder) i uspostavite baseline nalaza kroz okruženja.
  2. Dajte prioritet remedijaciji za: agente bez autentifikacije, deljenje na nivou cele organizacije, maker-auth agente i bilo kakvu mogućnost slanja e-pošte ka eksternim destinacijama.
  3. Pregledajte upotrebu HTTP Request i gde je moguće zamenite upravljanim konektorima; nametnite HTTPS i standardne portove.
  4. Očistite uspavane/orphaned resurse: povucite iz upotrebe neiskorišćene agente/akcije i rotirajte/uklonite zastarele konekcije.
  5. Uspostavite operativne guardrails: zahtevajte imenovanog vlasnika, dokumentovanu svrhu, konekcije sa najmanjim privilegijama i obavezne instrukcije za generative orchestration.

Trebate pomoć sa Security?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Povezani članci

Security

Trivy kompromitacija lanca snabdevanja: Defender

Microsoft je objavio smernice za detekciju, istragu i ublažavanje kompromitacije Trivy lanca snabdevanja iz marta 2026, koja je pogodila Trivy binarni fajl i povezane GitHub Actions. Incident je važan jer je zloupotrebio pouzdane CI/CD bezbednosne alate za krađu akreditiva iz build pipeline-ova, cloud okruženja i developerskih sistema, dok je izgledalo kao da radi normalno.

Security

Upravljanje AI agentima: usklađivanje namere

Microsoft predstavlja model upravljanja za AI agente koji usklađuje korisničku, razvojnu, ulogama zasnovanu i organizacionu nameru. Ovaj okvir pomaže preduzećima da agente održe korisnim, bezbednim i usklađenim tako što definiše granice ponašanja i jasan redosled prioriteta kada dođe do konflikta.

Security

Defender predictive shielding zaustavlja GPO ransomware

Microsoft je opisao stvarni slučaj ransomware napada u kome je Defender predictive shielding otkrio zloupotrebu Group Policy Object (GPO) mehanizama pre početka enkripcije. Ojačavanjem propagacije GPO-a i prekidanjem kompromitovanih naloga, Defender je blokirao oko 97% pokušaja enkripcije i sprečio da bilo koji uređaj bude šifrovan putem GPO kanala isporuke.

Security

Microsoft agentic AI bezbednost na RSAC 2026

Microsoft je na RSAC 2026 predstavio sveobuhvatnu strategiju za bezbednost agentic AI sistema, uključujući skoru opštu dostupnost platforme Agent 365 od 1. maja, uz integraciju sa Defender, Entra i Purview alatima za upravljanje, zaštitu pristupa i sprečavanje prekomernog deljenja podataka. Ovo je važno jer kompanijama donosi bolju vidljivost AI rizika, otkrivanje neovlašćene upotrebe AI aplikacija i jaču zaštitu identiteta i podataka kako se AI agenti sve brže uvode u poslovna okruženja.

Security

Microsoft CTI-REALM open-source benchmark za AI detekciju

Microsoft je predstavio CTI-REALM, open-source benchmark koji proverava da li AI agenti mogu da obavljaju stvaran detection engineering posao, od analize threat intelligence izveštaja do pravljenja i validacije detekcionih pravila. To je važno za SOC i bezbednosne timove jer pomera procenu AI alata sa teorijskog cyber znanja na merljive operativne rezultate u realnim okruženjima poput Linux endpointa, AKS-a i Azure infrastrukture.

Security

Microsoft Zero Trust za AI: radionica i arhitektura

Microsoft je predstavio smernice „Zero Trust for AI“ i proširio svoj Zero Trust Workshop namenskim AI stubom, kako bi organizacije lakše procenile i uvele bezbednosne kontrole za modele, agente, podatke i automatizovane odluke. Ovo je važno jer kompanijama daje strukturisan okvir za zaštitu od rizika kao što su prompt injection, data poisoning i preširoka ovlašćenja, uz bolju usklađenost bezbednosnih, IT i poslovnih timova.