Security

Zabezpieczenia agentic AI od Microsoft na RSAC 2026

3 min czytania

Podsumowanie

Microsoft na RSAC 2026 zaprezentował strategię zabezpieczania agentic AI w firmach, obejmującą ochronę agentów, tożsamości, danych i infrastruktury, a także potwierdził premierę Agent 365 w modelu general availability od 1 maja. To ważne, bo wraz z rosnącym wdrożeniem AI w przedsiębiorstwach organizacje potrzebują narzędzi do centralnego zarządzania ryzykiem, wykrywania nieautoryzowanego użycia AI i ograniczania nadmiernego udostępniania danych.

Potrzebujesz pomocy z Security?Porozmawiaj z ekspertem

Wprowadzenie

Agentic AI szybko przechodzi z etapu eksperymentów do wdrożeń w przedsiębiorstwach, co tworzy nowy zestaw wyzwań bezpieczeństwa dla zespołów IT i security. Podczas RSAC 2026 Microsoft przedstawił kompleksową strategię zabezpieczania agentów AI, infrastruktury, na której polegają, oraz danych i tożsamości, z którymi wchodzą w interakcję.

Co nowego

Agent 365 wkrótce osiągnie general availability

Microsoft potwierdził, że Agent 365 osiągnie general availability 1 maja. Pozycjonowany jako control plane dla agentów, został zaprojektowany tak, aby pomagać zespołom IT, security i biznesowym obserwować, zabezpieczać i zarządzać agentami AI na dużą skalę.

Najważniejsze wyróżnione możliwości obejmują:

  • Integrację z Microsoft Defender, Entra i Purview
  • Mechanizmy kontroli zabezpieczające dostęp agentów
  • Ochronę ograniczającą nadmierne udostępnianie danych
  • Wsparcie w obronie przed nowymi zagrożeniami AI

Agent 365 jest zawarty w Microsoft 365 E7: The Frontier Suite.

Nowa widoczność ryzyka AI w całym przedsiębiorstwie

Microsoft dodaje kilka narzędzi poprawiających wykrywanie AI i świadomość ryzyka:

  • Security Dashboard for AI jest już ogólnie dostępny, zapewniając scentralizowaną widoczność ryzyka związanego z AI.
  • Entra Internet Access Shadow AI Detection osiągnie general availability 31 marca, pomagając identyfikować użycie niezarządzanych aplikacji AI na warstwie sieciowej.
  • Ulepszony spis aplikacji w Intune pojawi się w maju, dodając widoczność aplikacji z funkcjami AI zainstalowanych na urządzeniach.

Entra rozszerza ochronę tożsamości

Microsoft Entra zyskuje kilka nowych i zaktualizowanych możliwości dla nowoczesnego bezpieczeństwa tożsamości:

  • Entra Backup and Recovery dla odporności katalogu jest dostępne w preview.
  • Entra Tenant Governance pomaga wykrywać shadow Entra tenants i usprawniać zarządzanie środowiskami wielodzierżawnymi; ta funkcja również jest w preview.
  • Synced passkeys oraz passkey profiles są ogólnie dostępne.
  • Integracja Windows Hello dla Entra passkeys jest w preview.
  • Integracja External MFA jest już ogólnie dostępna.
  • Adaptive risk remediation będzie ogólnie dostępne w kwietniu.
  • Nowe identity security dashboard oraz identity risk score w Microsoft Defender są dostępne w preview.

Purview dodaje ochronę danych świadomą AI

Aby przeciwdziałać wyciekom danych i nadmiernemu udostępnianiu w przepływach pracy AI, Microsoft ogłosił:

  • Rozszerzone Purview DLP for Microsoft 365 Copilot, ogólnie dostępne 31 marca
  • Purview embedded in Copilot Control System, ogólnie dostępne w kwietniu
  • Customizable data security reports, dostępne w preview 31 marca

Dlaczego ma to znaczenie dla administratorów IT

Ogłoszenia te pokazują, że Microsoft traktuje AI jako pełnoprawną domenę bezpieczeństwa, a nie jako dodatkową funkcję. Dla administratorów kluczowy wniosek jest taki, że zarządzanie AI, tożsamość, widoczność endpointów i ochrona danych stają się coraz ściślej zintegrowane w całym stosie Microsoft.

Organizacje, które już wdrażają Copilot, aplikacje AI lub autonomicznych agentów, powinny spodziewać się większej uwagi wokół shadow AI, zasad dostępu i obsługi danych. Nowe pulpity i mechanizmy kontroli mogą pomóc ograniczyć martwe punkty, jednocześnie wspierając bezpieczniejsze wdrażanie AI.

Kolejne kroki

  • Sprawdź, czy Agent 365 pasuje do Twojej strategii zarządzania AI.
  • Włącz lub oceń nowe mechanizmy ochrony tożsamości w Entra, szczególnie passkeys i adaptive remediation.
  • Przygotuj się na Shadow AI Detection i zaktualizowany spis aplikacji w Intune, aby identyfikować użycie niezarządzanych narzędzi AI.
  • Oceń zasady Purview DLP dla Copilot i innych przepływów pracy związanych z AI.
  • Poinformuj zespoły security i compliance o szerszym modelu bezpieczeństwa agentic AI firmy Microsoft.

Potrzebujesz pomocy z Security?

Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.

Porozmawiaj z ekspertem

Bądź na bieżąco z technologiami Microsoft

Securityagentic AIMicrosoft EntraMicrosoft PurviewMicrosoft Defender

Powiązane artykuły

Security

Kompromitacja łańcucha dostaw Trivy: wskazówki Defender

Microsoft opublikował wskazówki dotyczące wykrywania, badania i ograniczania skutków kompromitacji łańcucha dostaw Trivy z marca 2026 r., która dotknęła binarkę Trivy i powiązane GitHub Actions. Incydent jest istotny, ponieważ wykorzystał zaufane narzędzia bezpieczeństwa CI/CD do kradzieży poświadczeń z potoków buildów, środowisk chmurowych i systemów deweloperskich, jednocześnie pozornie działając normalnie.

Security

Governance AI agentów: zgodność intencji i bezpieczeństwo

Microsoft przedstawia model governance dla AI agents, który łączy intencje użytkownika, dewelopera, role-based oraz organizacji. Framework pomaga firmom utrzymać agentów jako użytecznych, bezpiecznych i zgodnych z wymaganiami, definiując granice zachowań oraz jasną hierarchię priorytetów w razie konfliktów.

Security

{{Microsoft Defender predictive shielding blokuje GPO ransomware}}

{{Microsoft opisał rzeczywisty przypadek ransomware, w którym predictive shielding w Defender wykrył złośliwe nadużycie Group Policy Object jeszcze przed rozpoczęciem szyfrowania. Dzięki wzmocnieniu propagacji GPO i zakłóceniu działania przejętych kont Defender zablokował około 97% prób szyfrowania i nie dopuścił do zaszyfrowania żadnych urządzeń przez ścieżkę dostarczania opartą na GPO.}}

Security

CTI-REALM open source: benchmark AI do detekcji

Microsoft udostępnił open source benchmark CTI-REALM, który sprawdza, czy agenci AI potrafią wykonywać realną pracę z obszaru inżynierii detekcji — od analizy raportów threat intelligence po tworzenie i walidację reguł detekcji. To ważne dla zespołów SOC i bezpieczeństwa, ponieważ zamiast mierzyć wyłącznie wiedzę modelu, narzędzie ocenia jego skuteczność w praktycznych zadaniach operacyjnych w środowiskach takich jak Linux, AKS i chmura Azure.

Security

Zero Trust for AI od Microsoft: warsztaty i ocena

Microsoft wprowadza wytyczne Zero Trust for AI, które przenoszą zasady Zero Trust na modele, agentów, dane i zautomatyzowane decyzje, aby pomóc firmom bezpiecznie wdrażać AI. Firma rozszerzyła też Zero Trust Workshop o dedykowany filar AI oraz rozbudowane oceny i kontrolki, co ma ułatwić zespołom IT i bezpieczeństwa identyfikację ryzyk takich jak prompt injection czy data poisoning oraz lepsze planowanie zabezpieczeń.

Security

Phishing podatkowy: Microsoft ostrzega przed atakami

Microsoft ostrzega przed wzrostem zaawansowanych kampanii phishingowych i malware wykorzystujących sezon podatkowy, w tym fałszywych wiadomości o dokumentach podatkowych, zwrotach i komunikacji od księgowych. To ważne, ponieważ ataki są coraz bardziej ukierunkowane i wykorzystują kody QR, wieloetapowe przekierowania, chmurowe pliki oraz legalne narzędzia administracyjne, co utrudnia ich wykrycie i zwiększa ryzyko kradzieży poświadczeń oraz infekcji firmowych systemów.