Security

Copilot Studio Agent Güvenliği: 10 Yanlış Yapılandırma

3 dk okuma

Özet

Microsoft, Copilot Studio agent’larında sahada görülen 10 yaygın yanlış yapılandırmayı ve bunları tespit etmek için Defender Advanced Hunting topluluk sorgularını paylaştı. Aşırı geniş paylaşım, kimlik doğrulamasız erişim ve riskli HTTP/e-posta eylemleri gibi hatalar; veri sızıntısı, yönetişim kontrollerinin aşılması ve iç sistemlere yetkisiz erişim riskini artırdığı için kuruluşların proaktif görünürlük ve güvenlik duruşu yönetimine öncelik vermesi gerekiyor.

Security konusunda yardıma mı ihtiyacınız var?Bir uzmanla konuşun

Giriş: neden önemli

Copilot Studio agent’ları operasyonel iş akışlarına hızla yerleşiyor—veri çekiyor, eylemleri tetikliyor ve iç sistemlerle büyük ölçekte etkileşime giriyor. Aynı otomasyon, agent’lar yanlış paylaşıldığında, aşırı ayrıcalıklarla çalıştığında veya standart yönetişim kontrollerini atladığında yeni saldırı yolları da yaratıyor. Microsoft’un Defender Security Research ekibi bu sorunları sahada (“in the wild”) görüyor; çoğu zaman belirgin uyarılar olmadan ortaya çıkmaları, proaktif keşif ve güvenlik duruşu yönetimini kritik hale getiriyor.

Yenilik: 10 yaygın Copilot Studio agent riski (ve nasıl tespit edilir)

Microsoft, agent yanlış yapılandırmalarına dair pratik bir ilk 10 listesi yayımladı ve her birini Microsoft Defender Advanced Hunting Community Queries ile eşledi (Security portal → Advanced huntingQueriesCommunity queriesAI Agent klasörü). Başlıca riskler şunları içeriyor:

  1. Aşırı geniş paylaşım (tüm organizasyon veya büyük gruplar) – saldırı yüzeyini genişletir ve istenmeyen kullanımı mümkün kılar.
  2. Kimlik doğrulama gerekmemesi – herkese açık/anonim giriş noktaları ve olası veri sızıntısı oluşturur.
  3. Riskli HTTP Request eylemleri – connector uç noktalarına çağrılar, HTTPS olmayan kullanım veya standart dışı portlar, connector yönetişimini ve kimlik kontrollerini baypas edebilir.
  4. E-posta tabanlı veri sızdırma yolları – agent’ların e-postayı AI tarafından kontrol edilen değerlere veya dış posta kutularına göndermesi, prompt injection kaynaklı exfiltration’ı mümkün kılabilir.
  5. Atıl (dormant) agent/eylem/bağlantılar – eski bileşenler, kalan ayrıcalıklarla birlikte gizli bir saldırı yüzeyine dönüşür.
  6. Author (maker) authentication – görev ayrımını zayıflatır ve ayrıcalık yükseltmeyi mümkün kılabilir.
  7. Konu/eylemlerde hard-coded credentials – kimlik bilgisi sızıntısı ve yeniden kullanım olasılığını artırır.
  8. Model Context Protocol (MCP) tools configured – belgelenmemiş erişim yolları ve istenmeyen sistem etkileşimleri ekleyebilir.
  9. Talimatlar olmadan generative orchestration – davranış sapması ve prompt kötüye kullanımı riski daha yüksektir.
  10. Orphaned agents (aktif sahibi olmayan) – zayıf yönetişim ve zaman içinde yönetilmeyen erişim.

IT admin’leri ve güvenlik ekiplerine etkisi

  • Görünürlük açığı: Bu yanlış yapılandırmalar oluşturulma aşamasında çoğu zaman kötü niyetli görünmez ve geleneksel uyarıları tetiklemeyebilir.
  • Kimlik ve veri maruziyeti: Kimlik doğrulamasız erişim, maker kimlik bilgileri ve geniş paylaşım, bir agent’ı organizasyon verisine düşük sürtünmeli bir geçiş noktasına dönüştürebilir.
  • Yönetişimi baypas etme: Doğrudan HTTP eylemleri, Power Platform connector korumalarını (doğrulama, throttling, kimlik zorlaması) atlatabilir.
  • Operasyonel risk: Orphaned veya dormant agent’lar, sahiplik ve niyet belirsizliğini korurken iş mantığını ve erişimi uzun süre muhafaza eder.

Yapılacaklar / sonraki adımlar

  1. AI Agent Community Queries sorgularını şimdi çalıştırın ve sonuçlar için bir baseline oluşturun (şunlarla başlayın: organizasyon genelinde paylaşım, no-auth agent’lar, author authentication, hard-coded credentials).
  2. Paylaşımı ve kimlik doğrulamayı sıkılaştırın: en az ayrıcalık (least-privilege) erişimini uygulayın ve tüm production agent’lar için kimlik doğrulamayı zorunlu kılın.
  3. HTTP Request kullanımını gözden geçirin: yönetişimli connector’ları tercih edin; HTTPS olmayan ve standart dışı portları acil düzeltim için işaretleyin.
  4. Dışa e-posta senaryolarını kontrol edin: dış alıcıları kısıtlayın, dinamik girdileri doğrulayın ve prompt-injection benzeri kalıplar için izleme yapın.
  5. Yaşam döngüsü yönetişimi oluşturun: agent envanteri çıkarın, orphaned agent’ları kaldırın veya yeniden sahip atayın ve dormant bağlantı/eylemleri emekli edin.

Agent yapılandırmasını güvenlik duruşunuzun bir parçası olarak ele alıp bu kalıpları sürekli avlayarak, saldırganlar bunları operasyonelleştirmeden önce maruziyeti azaltabilirsiniz.

Security konusunda yardıma mı ihtiyacınız var?

Uzmanlarımız Microsoft çözümlerinizi uygulamanıza ve optimize etmenize yardımcı olabilir.

Bir uzmanla konuşun

Microsoft teknolojileri hakkında güncel kalın

Copilot StudioMicrosoft DefenderAdvanced HuntingAI securityPower Platform governance

İlgili Yazılar

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.