Security

Microsoft Purview dla Fabric: bezpieczeństwo danych AI

3 min czytania

Podsumowanie

Microsoft ogłosił nowe funkcje Microsoft Purview dla Fabric, które mają wzmocnić bezpieczeństwo danych wykorzystywanych w projektach AI. Najważniejsze zmiany to ogólna dostępność zasad DLP oraz rozszerzenie Insider Risk Management na lakehouse’y, co pomaga wykrywać nadmierne udostępnianie, ograniczać dostęp do danych wrażliwych i zapobiegać ich eksfiltracji. To istotne dla organizacji, bo ułatwia bezpieczne skalowanie inicjatyw AI przy zachowaniu zgodności i lepszego nadzoru nad danymi.

Potrzebujesz pomocy z Security?Porozmawiaj z ekspertem

Wprowadzenie

W miarę jak organizacje coraz szerzej wdrażają technologie AI, zapewnienie bezpieczeństwa danych i nadzoru nad nimi staje się kluczowe. Najnowsze innowacje w Microsoft Purview mają pomóc organizacjom poruszać się po złożoności zarządzania danymi w ramach Microsoft Fabric, umożliwiając im bezpieczne przyspieszenie transformacji AI.

Kluczowe innowacje w Microsoft Purview dla Fabric

Ogłoszenie Microsoft podczas FabCon Atlanta podkreśla kilka istotnych aktualizacji Microsoft Purview, które zwiększają możliwości ochrony danych i nadzoru:

  • Data Loss Prevention (DLP) Policies:

    • Teraz ogólnie dostępne, te zasady umożliwiają administratorom Fabric zapobieganie nadmiernemu udostępnianiu danych poprzez wyzwalanie alertów po wykryciu danych wrażliwych w zasobach przesłanych do Warehouses.
    • W wersji zapoznawczej administratorzy mogą ograniczać dostęp do danych wrażliwych w bazach danych KQL/SQL i Fabric Warehouses, aby zapewnić, że tylko upoważniony personel ma dostęp do tych informacji.
  • Insider Risk Management (IRM) Enhancements:

    • Możliwości IRM zostały teraz rozszerzone na lakehouses w Microsoft Fabric, co pozwala wykrywać ryzykowne zachowania użytkowników, takie jak udostępnianie danych podmiotom zewnętrznym.
    • Nowe zasady dotyczące kradzieży danych pomagają identyfikować potencjalne przypadki eksfiltracji danych, wzmacniając tym samym poziom bezpieczeństwa danych w organizacji.
    • Wprowadzenie raportu użycia w modelu pay-as-you-go zapewnia wgląd w wzorce rozliczeń i wykorzystania, wspierając zarządzanie kosztami.
  • Governance and Data Quality Improvements:

    • Unified Catalog w Purview został ulepszony, aby umożliwić właścicielom danych zarządzanie obiegami publikacji dla produktów danych i terminów słownika, zapewniając utrzymanie nadzoru nad danymi przez cały cykl życia.
    • Organizacje mogą teraz uruchamiać oceny jakości danych na zasobach nieobjętych nadzorem, w tym na danych Fabric, aby promować wykorzystanie danych wysokiej jakości w aplikacjach AI.

Wpływ na administratorów IT i użytkowników końcowych

Te innowacje mają na celu wzmocnienie administratorów IT poprzez zapewnienie im lepszych narzędzi do zarządzania bezpieczeństwem danych i zgodnością. Wraz ze wzrostem wdrażania AI zdolność do ochrony danych wrażliwych i utrzymania procesów nadzoru będzie kluczowa. Dla użytkowników końcowych te usprawnienia oznaczają bardziej niezawodny dostęp do danych wysokiej jakości, co umożliwia korzystanie z możliwości AI bez kompromisów w zakresie bezpieczeństwa.

Działania do podjęcia i kolejne kroki

  • Przejrzyj zasady DLP: Administratorzy powinni ocenić i wdrożyć zasady DLP, aby ograniczyć ryzyko nadmiernego udostępniania danych w swoich środowiskach Fabric.
  • Wykorzystaj funkcje IRM: Organizacje powinny zapoznać się z nowymi funkcjami IRM, aby skutecznie monitorować ryzyka wewnętrzne i zarządzać nimi.
  • Wzmocnij nadzór nad danymi: Wykorzystaj Unified Catalog do ustanowienia silnych praktyk nadzoru wokół produktów danych i zapewnienia jakości danych w całym środowisku.

Podsumowanie

Nowe innowacje Microsoft Purview dla Fabric stanowią istotny krok w kierunku umożliwienia organizacjom bezpiecznego wykorzystania potencjału AI. Koncentrując się na bezpieczeństwie danych i nadzorze, Microsoft zapewnia solidne ramy, które pozwalają organizacjom wprowadzać innowacje pewnie i odpowiedzialnie.

Potrzebujesz pomocy z Security?

Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.

Porozmawiaj z ekspertem

Bądź na bieżąco z technologiami Microsoft

Microsoft PurviewAI transformationdata governancesecuritydata quality

Powiązane artykuły

Security

Kompromitacja łańcucha dostaw Trivy: wskazówki Defender

Microsoft opublikował wskazówki dotyczące wykrywania, badania i ograniczania skutków kompromitacji łańcucha dostaw Trivy z marca 2026 r., która dotknęła binarkę Trivy i powiązane GitHub Actions. Incydent jest istotny, ponieważ wykorzystał zaufane narzędzia bezpieczeństwa CI/CD do kradzieży poświadczeń z potoków buildów, środowisk chmurowych i systemów deweloperskich, jednocześnie pozornie działając normalnie.

Security

Governance AI agentów: zgodność intencji i bezpieczeństwo

Microsoft przedstawia model governance dla AI agents, który łączy intencje użytkownika, dewelopera, role-based oraz organizacji. Framework pomaga firmom utrzymać agentów jako użytecznych, bezpiecznych i zgodnych z wymaganiami, definiując granice zachowań oraz jasną hierarchię priorytetów w razie konfliktów.

Security

{{Microsoft Defender predictive shielding blokuje GPO ransomware}}

{{Microsoft opisał rzeczywisty przypadek ransomware, w którym predictive shielding w Defender wykrył złośliwe nadużycie Group Policy Object jeszcze przed rozpoczęciem szyfrowania. Dzięki wzmocnieniu propagacji GPO i zakłóceniu działania przejętych kont Defender zablokował około 97% prób szyfrowania i nie dopuścił do zaszyfrowania żadnych urządzeń przez ścieżkę dostarczania opartą na GPO.}}

Security

Zabezpieczenia agentic AI od Microsoft na RSAC 2026

Microsoft na RSAC 2026 zaprezentował strategię zabezpieczania agentic AI w firmach, obejmującą ochronę agentów, tożsamości, danych i infrastruktury, a także potwierdził premierę Agent 365 w modelu general availability od 1 maja. To ważne, bo wraz z rosnącym wdrożeniem AI w przedsiębiorstwach organizacje potrzebują narzędzi do centralnego zarządzania ryzykiem, wykrywania nieautoryzowanego użycia AI i ograniczania nadmiernego udostępniania danych.

Security

CTI-REALM open source: benchmark AI do detekcji

Microsoft udostępnił open source benchmark CTI-REALM, który sprawdza, czy agenci AI potrafią wykonywać realną pracę z obszaru inżynierii detekcji — od analizy raportów threat intelligence po tworzenie i walidację reguł detekcji. To ważne dla zespołów SOC i bezpieczeństwa, ponieważ zamiast mierzyć wyłącznie wiedzę modelu, narzędzie ocenia jego skuteczność w praktycznych zadaniach operacyjnych w środowiskach takich jak Linux, AKS i chmura Azure.

Security

Zero Trust for AI od Microsoft: warsztaty i ocena

Microsoft wprowadza wytyczne Zero Trust for AI, które przenoszą zasady Zero Trust na modele, agentów, dane i zautomatyzowane decyzje, aby pomóc firmom bezpiecznie wdrażać AI. Firma rozszerzyła też Zero Trust Workshop o dedykowany filar AI oraz rozbudowane oceny i kontrolki, co ma ułatwić zespołom IT i bezpieczeństwa identyfikację ryzyk takich jak prompt injection czy data poisoning oraz lepsze planowanie zabezpieczeń.