Security

Copilot Studio bezbednost: 10 rizičnih konfiguracija

3 min čitanja

Sažetak

Microsoft upozorava da u Copilot Studio okruženjima male konfiguracione greške mogu da otvore ozbiljne putanje za zloupotrebu, uključujući prekomerno deljenje agenata, slabu ili nedoslednu autentifikaciju i nebezbedne akcije nad podacima. Važnost vesti je u tome što kompanija sada daje konkretnih 10 rizičnih obrazaca, zajedno sa Defender Advanced Hunting upitima i preporučenim merama u Copilot Studio/Power Platform, kako bi timovi lakše otkrili loše postavke i smanjili napadnu površinu pre nego što dođe do eksfiltracije podataka ili prompt-driven zloupotrebe.

Trebate pomoć sa Security?Razgovarajte sa stručnjakom

Uvod: zašto je ovo važno

Agenti brzo postaju nova kontrolna ravan za pristup podacima i automatizaciju tokova rada — često se brzo grade i objavljuju kroz low-code alate kao što je Copilot Studio. Microsoft upozorava da male konfiguracione odluke (široko deljenje, nebezbedne akcije, slaba autentifikacija, zastarelo vlasništvo) mogu da naprave identitetske i putanje pristupa podacima koje tradicionalne bezbednosne kontrole možda ne prate. Krajnji rezultat: pogrešno konfigurisani agenti mogu neprimetno da prošire vašu napadnu površinu i omoguće zloupotrebu vođenu promptovima ili eksfiltraciju podataka.

Šta je novo: 10 čestih pogrešnih konfiguracija agenata (i kako da ih otkrijete)

Microsoft dokumentuje deset pogrešnih konfiguracija „u realnom svetu“ i mapira svaku na Defender Advanced Hunting Community Queries (Security portal → Advanced hunting → Queries → Community Queries → fascikla AI Agent), uz preporučene mitigacije u Copilot Studio/Power Platform.

Ključne teme uključuju:

1) Prekomerno deljenje i slabe granice pristupa

  • Rizik: Agenti deljeni na celu organizaciju ili široke grupe.
  • Otkrivanje: Upiti poput AI Agents – Organization or Multitenant Shared.
  • Ublažavanje: Koristite Managed Environments i agent sharing limits; proverite strategiju okruženja i obim deljenja.

2) Nedostajuća ili nedosledna autentifikacija

  • Rizik: Agenti koji ne zahtevaju autentifikaciju postaju javna ulazna tačka.
  • Otkrivanje: AI Agents – No Authentication Required.
  • Ublažavanje: Sprovedite agent authentication at the environment level (autentifikacija je podrazumevano uključena — ne ublažavajte je radi testiranja bez zaštitnih ograda).

3) Rizične akcije, konektori i putanje eksfiltracije

  • Rizik: HTTP Request akcije sa nebezbednim podešavanjima (bez HTTPS, nestandardni portovi) ili email akcije koje omogućavaju eksfiltraciju podataka.
  • Otkrivanje: Upiti koji pokrivaju obrasce HTTP zahteva i slanje email-a ka eksternim odredištima / ulaze koje kontroliše AI.
  • Ublažavanje: Primeni Data Policies / Advanced Connector Policies, i razmotrite Microsoft Defender Real-time Protection i kontrole akcija konektora.

4) Odstupanje u upravljanju: neaktivni, „siročići“ i previše privilegovani agenti

  • Rizik: Neaktivni agenti/konekcije, author (maker) autentifikacija, agenti bez vlasnika sa onemogućenim vlasnicima, hardkodovane akreditive.
  • Otkrivanje: Upiti za neaktivne/neizmenjene agente, author auth, hardkodovane akreditive, vlasnike „siročiće“.
  • Ublažavanje: Redovno pregledajte inventar, ograničite maker akreditive, čuvajte tajne u Azure Key Vault putem environment variables i stavite u karantin/dekomisionirajte zastarele agente.

5) Novi alati i rizici orkestracije

  • Rizik: MCP alati i generativna orkestracija bez jasnih instrukcija (odstupanje ponašanja/prompt zloupotreba).
  • Otkrivanje: MCP konfigurisan, i orkestracija bez instrukcija.
  • Ublažavanje: Ograničite MCP alate putem politika; oslonite se na ugrađene zaštitne mehanizme (npr. Azure Prompt Shield/RAI kontrole) i objavljujte uz jasne instrukcije.

Uticaj na IT administratore i bezbednosne timove

  • Očekujte da agenti uvedu netradicionalne putanje pristupa (konektori, MCP alati, email akcije) koje mogu da zaobiđu legacy nadzor.
  • Low-code brzina povećava verovatnoću pogrešne konfiguracije u velikom obimu, naročito kroz više Power Platform okruženja.
  • Problemi upravljanja (vlasništvo, neaktivnost, maker akreditive) mogu da stvore trajan, teško uočljiv rizik.

Preporučeni sledeći koraci

  1. Pokrenite AI Agent Community Queries u Defender Advanced Hunting i uspostavite baznu liniju rezultata po okruženju.
  2. Sprovedite autentifikaciju na nivou okruženja i pregledajte sve izuzetke.
  3. Implementirajte/proverite Managed Environments, sharing limits i Data/Connector policies.
  4. Proverite author authentication, hardcoded secrets i orphaned/dormant agents; sanirajte i dekomisionirajte gde je potrebno.
  5. Dokumentujte smernice za bezbednu izgradnju za makers (HTTP najbolje prakse, rukovanje tajnama, kvalitet instrukcija) i dodajte ih u interno uvođenje.

Trebate pomoć sa Security?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

Copilot StudioMicrosoft DefenderAdvanced HuntingPower Platform governanceAI security

Povezani članci

Security

Trivy kompromitacija lanca snabdevanja: Defender

Microsoft je objavio smernice za detekciju, istragu i ublažavanje kompromitacije Trivy lanca snabdevanja iz marta 2026, koja je pogodila Trivy binarni fajl i povezane GitHub Actions. Incident je važan jer je zloupotrebio pouzdane CI/CD bezbednosne alate za krađu akreditiva iz build pipeline-ova, cloud okruženja i developerskih sistema, dok je izgledalo kao da radi normalno.

Security

Upravljanje AI agentima: usklađivanje namere

Microsoft predstavlja model upravljanja za AI agente koji usklađuje korisničku, razvojnu, ulogama zasnovanu i organizacionu nameru. Ovaj okvir pomaže preduzećima da agente održe korisnim, bezbednim i usklađenim tako što definiše granice ponašanja i jasan redosled prioriteta kada dođe do konflikta.

Security

Defender predictive shielding zaustavlja GPO ransomware

Microsoft je opisao stvarni slučaj ransomware napada u kome je Defender predictive shielding otkrio zloupotrebu Group Policy Object (GPO) mehanizama pre početka enkripcije. Ojačavanjem propagacije GPO-a i prekidanjem kompromitovanih naloga, Defender je blokirao oko 97% pokušaja enkripcije i sprečio da bilo koji uređaj bude šifrovan putem GPO kanala isporuke.

Security

Microsoft agentic AI bezbednost na RSAC 2026

Microsoft je na RSAC 2026 predstavio sveobuhvatnu strategiju za bezbednost agentic AI sistema, uključujući skoru opštu dostupnost platforme Agent 365 od 1. maja, uz integraciju sa Defender, Entra i Purview alatima za upravljanje, zaštitu pristupa i sprečavanje prekomernog deljenja podataka. Ovo je važno jer kompanijama donosi bolju vidljivost AI rizika, otkrivanje neovlašćene upotrebe AI aplikacija i jaču zaštitu identiteta i podataka kako se AI agenti sve brže uvode u poslovna okruženja.

Security

Microsoft CTI-REALM open-source benchmark za AI detekciju

Microsoft je predstavio CTI-REALM, open-source benchmark koji proverava da li AI agenti mogu da obavljaju stvaran detection engineering posao, od analize threat intelligence izveštaja do pravljenja i validacije detekcionih pravila. To je važno za SOC i bezbednosne timove jer pomera procenu AI alata sa teorijskog cyber znanja na merljive operativne rezultate u realnim okruženjima poput Linux endpointa, AKS-a i Azure infrastrukture.

Security

Microsoft Zero Trust za AI: radionica i arhitektura

Microsoft je predstavio smernice „Zero Trust for AI“ i proširio svoj Zero Trust Workshop namenskim AI stubom, kako bi organizacije lakše procenile i uvele bezbednosne kontrole za modele, agente, podatke i automatizovane odluke. Ovo je važno jer kompanijama daje strukturisan okvir za zaštitu od rizika kao što su prompt injection, data poisoning i preširoka ovlašćenja, uz bolju usklađenost bezbednosnih, IT i poslovnih timova.