Security

Copilot Studio yanlış yapılandırmaları: Defender’da 10 risk

3 dk okuma

Özet

Microsoft Defender Security Research Team, Copilot Studio ajanlarında gerçek ortamlarda sık görülen 10 kritik yanlış yapılandırmayı ve bunları Microsoft Defender Advanced Hunting içindeki Community Queries ile nasıl tespit edebileceğinizi paylaştı. Aşırı geniş paylaşım, kimlik doğrulamasız erişim, riskli HTTP çağrıları ve e-posta tabanlı veri sızdırma gibi hatalar, ajanların kurumsal veriler ve iş akışları için ciddi maruziyet noktalarına dönüşmesine neden olabileceğinden, bu rehber güvenlik ekipleri için erken tespit ve risk azaltma açısından önemli.

Security konusunda yardıma mı ihtiyacınız var?Bir uzmanla konuşun

Giriş: neden önemli

Copilot Studio ajanları operasyonel iş akışlarına hızla yerleşiyor—veri sorguluyor, eylemleri tetikliyor ve sistemlerle ölçekli şekilde etkileşime giriyor. Defender Security Research Team, küçük ve iyi niyetli yapılandırma tercihlerinin (geniş paylaşım, zayıf kimlik doğrulama, riskli eylemler) sessizce yüksek etkili maruziyet noktalarına dönüşebileceği konusunda uyarıyor. İyi haber: Microsoft Defender, Advanced Hunting Community Queries kullanarak bu durumları erken tespit etmenize yardımcı olabilir.

Yenilikler: avlanılacak 10 yanlış yapılandırma

Microsoft, gerçek ortamlarda gözlemlenen en yaygın Copilot Studio ajan risklerinin “tek sayfalık görünüm”ünü ve Microsoft Defender Advanced Hunting içindeki karşılık gelen tespitleri yayımladı (Security portal → Advanced hunting → Queries → Community Queries → AI Agent klasörü).

Öne çıkan temel riskler:

  • Aşırı geniş paylaşım (tüm org’e veya geniş gruplara paylaşım): saldırı yüzeyini ve istenmeyen kullanımı artırır.
  • Kimlik doğrulama gerekmemesi: ajanı, iç verileri veya mantığı açığa çıkarabilecek herkese açık/anonim bir giriş noktasına dönüştürür.
  • Riskli HTTP Request eylemleri: HTTPS olmayan kullanım, standart dışı portlar veya connector’lar üzerinden yönetişilmesi gereken endpoint’lere doğrudan çağrılar—policy ve kimlik korumalarını baypas eder.
  • E-posta tabanlı veri sızdırma yolları: saldırgan kontrolündeki girdilere veya harici posta kutularına e-posta gönderebilen ajanlar (özellikle prompt injection ile tehlikelidir).
  • Atıl ajanlar, eylemler veya bağlantılar: “unutulmuş” yayımlanmış ajanlar ve eski bağlantılar gizli, ayrıcalıklı erişim oluşturur.
  • Production’da author (maker) kimlik doğrulaması: görevler ayrımını bozar ve fiilen yükseltilmiş maker izinleriyle çalışabilir.
  • Topic/action içinde hard-coded kimlik bilgileri: doğrudan kimlik bilgisi sızıntısı riski.
  • Model Context Protocol (MCP) araçlarının yapılandırılması: belgelenmemiş erişim yolları ve istenmeyen sistem etkileşimleri oluşturabilir.
  • Instructions olmadan generative orchestration: davranış sapması veya prompt kaynaklı güvensiz eylem olasılığını artırır.
  • Orphaned ajanlar (aktif sahibi yok): zayıf yönetişim, hesap verebilir bir bakım sahibi yokluğu ve güncelliğini yitirmiş mantık riski.

IT admin’leri ve güvenlik ekipleri için etkisi

Power Platform ve Microsoft 365 güvenliğini yöneten admin’ler için temel çıkarım şu: ajan güvenlik duruşu artık kimlik ve veri yönetişiminin bir parçası. Yanlış yapılandırmalar, geleneksel uygulama envanterlerinin, conditional access varsayımlarının veya connector policy’lerinin tam olarak yakalayamayabileceği yeni erişim yolları oluşturabilir—özellikle ajanlar maker’lar tarafından hızla oluşturulurken.

Aksiyon maddeleri / sonraki adımlar

  1. Defender Advanced Hunting’de (AI Agent klasörü) Community Queries sorgularını çalıştırın ve ortamlar genelinde bulguların bir baseline’ını çıkarın.
  2. Şunlar için düzeltmeyi önceliklendirin: kimlik doğrulaması olmayan ajanlar, org geneli paylaşım, maker-auth ajanlar ve tüm harici e-posta yetenekleri.
  3. HTTP Request kullanımını gözden geçirin ve mümkün olan yerlerde yönetişimli connector’larla değiştirin; HTTPS ve standart portları zorunlu kılın.
  4. Atıl/orphaned varlıkları temizleyin: kullanılmayan ajan/eylemleri devre dışı bırakın, eski bağlantıları döndürün/kaldırın.
  5. Operasyonel guardrail’ler oluşturun: isimli sahiplik, dokümante amaç, least-privilege bağlantılar ve generative orchestration için zorunlu instructions.

Security konusunda yardıma mı ihtiyacınız var?

Uzmanlarımız Microsoft çözümlerinizi uygulamanıza ve optimize etmenize yardımcı olabilir.

Bir uzmanla konuşun

Microsoft teknolojileri hakkında güncel kalın

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

İlgili Yazılar

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.