Security

Copilot Studio: 10 błędnych konfiguracji do wykrycia

3 min czytania

Podsumowanie

Microsoft ostrzega przed 10 częstymi błędnymi konfiguracjami agentów Copilot Studio, które mogą prowadzić do nieautoryzowanego dostępu, ujawnienia danych i obejścia mechanizmów bezpieczeństwa. Firma udostępniła gotowe detekcje w Microsoft Defender Advanced Hunting, co ma znaczenie, bo pozwala zespołom bezpieczeństwa szybciej wykrywać ryzykowne ustawienia i ograniczać potencjalne skutki incydentów.

Potrzebujesz pomocy z Security?Porozmawiaj z ekspertem

Wprowadzenie: dlaczego to ma znaczenie

Agenci Copilot Studio szybko stają się częścią operacyjnych przepływów pracy — odpytywania danych, uruchamiania akcji i interakcji z systemami na dużą skalę. Zespół Defender Security Research ostrzega, że drobne, podejmowane w dobrej wierze decyzje konfiguracyjne (szerokie udostępnianie, słabe uwierzytelnianie, ryzykowne akcje) mogą po cichu stać się punktami ekspozycji o dużym wpływie. Dobra wiadomość: Microsoft Defender może pomóc wykrywać te warunki wcześnie, korzystając z Advanced Hunting Community Queries.

Co nowego: 10 błędnych konfiguracji, których warto szukać

Microsoft opublikował „one-page view” najczęstszych ryzyk agentów Copilot Studio zaobserwowanych w rzeczywistych środowiskach, wraz z odpowiadającymi im detekcjami w Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → folder AI Agent).

Wyróżnione kluczowe ryzyka obejmują:

  • Zbyt szerokie udostępnianie (udostępnione całej organizacji lub szerokim grupom): zwiększa powierzchnię ataku i ryzyko niezamierzonego użycia.
  • Brak wymaganego uwierzytelniania: zamienia agenta w publiczny/anonimowy punkt wejścia, który może ujawniać wewnętrzne dane lub logikę.
  • Ryzykowne akcje HTTP Request: używanie nie-HTTPS, niestandardowych portów lub bezpośrednich wywołań do endpointów, które powinny być zarządzane przez konektory — z pominięciem zasad i zabezpieczeń tożsamości.
  • Ścieżki eksfiltracji danych przez e-mail: agenci, którzy mogą wysyłać e-mail do wejść kontrolowanych przez atakującego lub na zewnętrzne skrzynki (szczególnie niebezpieczne przy prompt injection).
  • Nieaktywne agenty, akcje lub połączenia: „zapomniani” opublikowani agenci i przestarzałe połączenia tworzą ukryty, uprzywilejowany dostęp.
  • Uwierzytelnianie autora (maker) w środowisku produkcyjnym: łamie separację obowiązków i może w praktyce uruchamiać działania z podwyższonymi uprawnieniami makera.
  • Zaszyte na stałe poświadczenia w tematach/akcjach: bezpośrednie ryzyko wycieku poświadczeń.
  • Skonfigurowane narzędzia Model Context Protocol (MCP): mogą wprowadzać nieudokumentowane ścieżki dostępu i niezamierzone interakcje z systemami.
  • Generative orchestration bez instrukcji: zwiększa prawdopodobieństwo dryfu zachowania lub niebezpiecznych akcji wywołanych przez prompt.
  • Osieroceni agenci (bez aktywnego właściciela): słaby ład (governance), brak odpowiedzialnego opiekuna i większe ryzyko nieaktualnej logiki.

Wpływ na administratorów IT i zespoły bezpieczeństwa

Dla administratorów zarządzających Power Platform i bezpieczeństwem Microsoft 365 kluczowy wniosek jest taki, że pozycja bezpieczeństwa agentów jest teraz częścią ładu tożsamości i danych. Błędne konfiguracje mogą tworzyć nowe ścieżki dostępu, których tradycyjne inwentaryzacje aplikacji, założenia dotyczące conditional access czy polityki konektorów mogą nie obejmować w pełni — zwłaszcza gdy agenci są szybko tworzeni przez makerów.

Działania / kolejne kroki

  1. Uruchom Community Queries w Advanced Hunting w Defender (folder AI Agent) i zbuduj bazowy obraz wyników w środowiskach.
  2. Nadaj priorytet remediacji dla: agentów bez uwierzytelniania, udostępniania na całą organizację, agentów z uwierzytelnianiem maker oraz wszelkiej funkcji wysyłki e-mail na zewnątrz.
  3. Przejrzyj użycie HTTP Request i tam, gdzie to możliwe, zastąp je zarządzanymi konektorami; wymuś HTTPS i standardowe porty.
  4. Posprzątaj nieaktywne/osierocone zasoby: wycofaj nieużywane agenty/akcje oraz rotuj/usuń przestarzałe połączenia.
  5. Ustanów operacyjne guardrails: wymagaj imiennego właściciela, udokumentowanego celu, połączeń zgodnych z zasadą least privilege oraz obowiązkowych instrukcji dla generative orchestration.

Potrzebujesz pomocy z Security?

Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.

Porozmawiaj z ekspertem

Bądź na bieżąco z technologiami Microsoft

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Powiązane artykuły

Security

Kompromitacja łańcucha dostaw Trivy: wskazówki Defender

Microsoft opublikował wskazówki dotyczące wykrywania, badania i ograniczania skutków kompromitacji łańcucha dostaw Trivy z marca 2026 r., która dotknęła binarkę Trivy i powiązane GitHub Actions. Incydent jest istotny, ponieważ wykorzystał zaufane narzędzia bezpieczeństwa CI/CD do kradzieży poświadczeń z potoków buildów, środowisk chmurowych i systemów deweloperskich, jednocześnie pozornie działając normalnie.

Security

Governance AI agentów: zgodność intencji i bezpieczeństwo

Microsoft przedstawia model governance dla AI agents, który łączy intencje użytkownika, dewelopera, role-based oraz organizacji. Framework pomaga firmom utrzymać agentów jako użytecznych, bezpiecznych i zgodnych z wymaganiami, definiując granice zachowań oraz jasną hierarchię priorytetów w razie konfliktów.

Security

{{Microsoft Defender predictive shielding blokuje GPO ransomware}}

{{Microsoft opisał rzeczywisty przypadek ransomware, w którym predictive shielding w Defender wykrył złośliwe nadużycie Group Policy Object jeszcze przed rozpoczęciem szyfrowania. Dzięki wzmocnieniu propagacji GPO i zakłóceniu działania przejętych kont Defender zablokował około 97% prób szyfrowania i nie dopuścił do zaszyfrowania żadnych urządzeń przez ścieżkę dostarczania opartą na GPO.}}

Security

Zabezpieczenia agentic AI od Microsoft na RSAC 2026

Microsoft na RSAC 2026 zaprezentował strategię zabezpieczania agentic AI w firmach, obejmującą ochronę agentów, tożsamości, danych i infrastruktury, a także potwierdził premierę Agent 365 w modelu general availability od 1 maja. To ważne, bo wraz z rosnącym wdrożeniem AI w przedsiębiorstwach organizacje potrzebują narzędzi do centralnego zarządzania ryzykiem, wykrywania nieautoryzowanego użycia AI i ograniczania nadmiernego udostępniania danych.

Security

CTI-REALM open source: benchmark AI do detekcji

Microsoft udostępnił open source benchmark CTI-REALM, który sprawdza, czy agenci AI potrafią wykonywać realną pracę z obszaru inżynierii detekcji — od analizy raportów threat intelligence po tworzenie i walidację reguł detekcji. To ważne dla zespołów SOC i bezpieczeństwa, ponieważ zamiast mierzyć wyłącznie wiedzę modelu, narzędzie ocenia jego skuteczność w praktycznych zadaniach operacyjnych w środowiskach takich jak Linux, AKS i chmura Azure.

Security

Zero Trust for AI od Microsoft: warsztaty i ocena

Microsoft wprowadza wytyczne Zero Trust for AI, które przenoszą zasady Zero Trust na modele, agentów, dane i zautomatyzowane decyzje, aby pomóc firmom bezpiecznie wdrażać AI. Firma rozszerzyła też Zero Trust Workshop o dedykowany filar AI oraz rozbudowane oceny i kontrolki, co ma ułatwić zespołom IT i bezpieczeństwa identyfikację ryzyk takich jak prompt injection czy data poisoning oraz lepsze planowanie zabezpieczeń.