Security

Microsoft Agent 365: bezpieczeństwo agentów AI

3 min czytania

Podsumowanie

Microsoft zaprezentował Agent 365 – wspólną warstwę zarządzania i zabezpieczania agentów AI w środowiskach firmowych, obejmującą rejestr agentów, monitoring użycia, sygnały ryzyka oraz szablony polityk bezpieczeństwa. To ważne, ponieważ wraz z rosnącą skalą wdrożeń autonomicznych agentów firmy potrzebują centralnej kontroli nad ich tożsamością, dostępem i zgodnością, aby ograniczać ryzyko i bezpiecznie rozwijać wykorzystanie AI.

Potrzebujesz pomocy z Security?Porozmawiaj z ekspertem

Wprowadzenie

W miarę jak przedsiębiorstwa przechodzą od eksperymentów z AI do wdrożeń autonomicznych i półautonomicznych agentów na dużą skalę, nadzór szybko staje się największą przeszkodą. Nowy Agent 365 od Microsoft został zaprojektowany z myślą o rozwiązaniu tego problemu, zapewniając zespołom IT, bezpieczeństwa i biznesowym wspólną warstwę sterowania do śledzenia, zabezpieczania i zarządzania agentową AI w ekosystemach Microsoft i partnerów.

Co nowego

Ujednolicona warstwa sterowania dla agentów AI

Microsoft Agent 365 zapewnia scentralizowaną widoczność agentów w całej organizacji, w tym agentów stworzonych przez Microsoft, agentów partnerów oraz agentów zarejestrowanych za pośrednictwem API.

Kluczowe możliwości obejmują:

  • Agent Registry do ujednoliconego spisu agentów przedsiębiorstwa
  • Obserwowalność użycia i wydajności z raportami, metrykami adopcji i szczegółami aktywności
  • Sygnały ryzyka agentów prezentowane przez Microsoft Defender, Entra i Purview
  • Szablony zasad bezpieczeństwa, które pomagają zespołom bezpieczeństwa definiować mechanizmy kontroli, egzekwowane następnie przez IT podczas onboardingu

Kontrole tożsamości i dostępu dla agentów

Microsoft traktuje agentów bardziej jak zarządzane tożsamości cyfrowe.

Wśród istotnych funkcji opartych na Entra znajdują się:

  • Agent ID do przypisywania każdemu agentowi unikalnej tożsamości w Microsoft Entra
  • Conditional Access i Identity Protection dla agentów z wykorzystaniem ryzyka, zgodności urządzeń z Intune oraz niestandardowych atrybutów zabezpieczeń
  • Identity Governance dla agentów w celu ograniczania dostępu i audytowania przyznanych uprawnień

To istotne, ponieważ niezarządzani agenci mogą łatwo uzyskać nadmierne uprawnienia lub działać poza standardowymi mechanizmami kontroli organizacyjnej.

Zgodność i ochrona danych dla agentowej AI

Możliwości Purview rozszerzają mechanizmy zgodności na agentów AI, pomagając ograniczać ryzyko nadmiernego udostępniania i wycieku danych.

Najważniejsze elementy obejmują:

  • Information Protection, dzięki czemu agenci dziedziczą etykiety poufności Microsoft 365
  • Inline DLP dla promptów w Microsoft Copilot Studio
  • Insider Risk Management dla ryzykownych interakcji agentów z danymi wrażliwymi
  • Data Lifecycle Management do retencji i usuwania promptów oraz danych generowanych przez agentów
  • Audit, eDiscovery i Communication Compliance do badania i nadzorowania aktywności agentów

Ochrona przed zagrożeniami związanymi z nowymi atakami na AI

Defender dodaje zabezpieczenia ukierunkowane konkretnie na zagrożenia związane z AI, takie jak:

  • Manipulacja promptami
  • Modyfikacja modeli
  • Łańcuchy ataków napędzane przez agentów
  • Błędne konfiguracje agentów Foundry i Copilot Studio

Niektóre funkcje Defender i Purview pozostają w public preview na dzień premiery 1 maja.

Wpływ na administratorów IT i zespoły bezpieczeństwa

Dla administratorów największa zmiana ma charakter operacyjny: agenci stają się pełnoprawnymi bytami przedsiębiorstwa, które wymagają takiego samego zarządzania cyklem życia jak użytkownicy, aplikacje i urządzenia. Organizacje wdrażające Copilot Studio, Foundry lub agentów tworzonych przez partnerów będą teraz miały jaśniejszą ścieżkę do egzekwowania kontroli tożsamości, zgodności i monitorowania bez budowania osobnych procesów nadzoru.

Działania do podjęcia

  • Sprawdź, gdzie w Twoim środowisku już istnieją agenci AI i kto jest za nich odpowiedzialny
  • Oceń, czy Twoje zasady Entra, Defender i Purview są gotowe do rozszerzenia na agentów
  • Zaplanuj GA Agent 365 na 1 maja 2026 r.
  • Oceń wpływ na licencjonowanie: cena Agent 365 wynosi 15 USD za użytkownika miesięcznie
  • Śledź funkcje w wersji preview, jeśli przy uruchomieniu potrzebujesz zaawansowanych scenariuszy związanych z ryzykiem i dochodzeniami

Przekaz Microsoft jest jasny: jeśli agenci AI mają być bezpiecznie skalowani, potrzebują tych samych ram zaufania, widoczności i kontroli co każda inna tożsamość w przedsiębiorstwie.

Potrzebujesz pomocy z Security?

Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.

Porozmawiaj z ekspertem

Bądź na bieżąco z technologiami Microsoft

Agent 365Microsoft SecurityEntra IDMicrosoft PurviewMicrosoft Defender

Powiązane artykuły

Security

Kompromitacja łańcucha dostaw Trivy: wskazówki Defender

Microsoft opublikował wskazówki dotyczące wykrywania, badania i ograniczania skutków kompromitacji łańcucha dostaw Trivy z marca 2026 r., która dotknęła binarkę Trivy i powiązane GitHub Actions. Incydent jest istotny, ponieważ wykorzystał zaufane narzędzia bezpieczeństwa CI/CD do kradzieży poświadczeń z potoków buildów, środowisk chmurowych i systemów deweloperskich, jednocześnie pozornie działając normalnie.

Security

Governance AI agentów: zgodność intencji i bezpieczeństwo

Microsoft przedstawia model governance dla AI agents, który łączy intencje użytkownika, dewelopera, role-based oraz organizacji. Framework pomaga firmom utrzymać agentów jako użytecznych, bezpiecznych i zgodnych z wymaganiami, definiując granice zachowań oraz jasną hierarchię priorytetów w razie konfliktów.

Security

{{Microsoft Defender predictive shielding blokuje GPO ransomware}}

{{Microsoft opisał rzeczywisty przypadek ransomware, w którym predictive shielding w Defender wykrył złośliwe nadużycie Group Policy Object jeszcze przed rozpoczęciem szyfrowania. Dzięki wzmocnieniu propagacji GPO i zakłóceniu działania przejętych kont Defender zablokował około 97% prób szyfrowania i nie dopuścił do zaszyfrowania żadnych urządzeń przez ścieżkę dostarczania opartą na GPO.}}

Security

Zabezpieczenia agentic AI od Microsoft na RSAC 2026

Microsoft na RSAC 2026 zaprezentował strategię zabezpieczania agentic AI w firmach, obejmującą ochronę agentów, tożsamości, danych i infrastruktury, a także potwierdził premierę Agent 365 w modelu general availability od 1 maja. To ważne, bo wraz z rosnącym wdrożeniem AI w przedsiębiorstwach organizacje potrzebują narzędzi do centralnego zarządzania ryzykiem, wykrywania nieautoryzowanego użycia AI i ograniczania nadmiernego udostępniania danych.

Security

CTI-REALM open source: benchmark AI do detekcji

Microsoft udostępnił open source benchmark CTI-REALM, który sprawdza, czy agenci AI potrafią wykonywać realną pracę z obszaru inżynierii detekcji — od analizy raportów threat intelligence po tworzenie i walidację reguł detekcji. To ważne dla zespołów SOC i bezpieczeństwa, ponieważ zamiast mierzyć wyłącznie wiedzę modelu, narzędzie ocenia jego skuteczność w praktycznych zadaniach operacyjnych w środowiskach takich jak Linux, AKS i chmura Azure.

Security

Zero Trust for AI od Microsoft: warsztaty i ocena

Microsoft wprowadza wytyczne Zero Trust for AI, które przenoszą zasady Zero Trust na modele, agentów, dane i zautomatyzowane decyzje, aby pomóc firmom bezpiecznie wdrażać AI. Firma rozszerzyła też Zero Trust Workshop o dedykowany filar AI oraz rozbudowane oceny i kontrolki, co ma ułatwić zespołom IT i bezpieczeństwa identyfikację ryzyk takich jak prompt injection czy data poisoning oraz lepsze planowanie zabezpieczeń.