Security

Microsoft Purview til Fabric styrker sikker AI

3 min læsning

Resumé

Microsoft udvider Microsoft Purview til Fabric med nye funktioner til databeskyttelse og governance, herunder generelt tilgængelige DLP-politikker, mere detaljeret adgangskontrol til følsomme data og forbedret Insider Risk Management i lakehouses. Det er vigtigt, fordi organisationer dermed får bedre muligheder for at opdage datarisici, forhindre lækager og opbygge et mere sikkert fundament for at skalere deres AI-initiativer.

Brug for hjælp med Security?Tal med en ekspert

Introduktion

I takt med at organisationer i stigende grad tager AI-teknologier i brug, er det blevet afgørende at sikre datasikkerhed og governance. Microsoft Purviews seneste innovationer er designet til at hjælpe organisationer med at navigere i kompleksiteten ved datahåndtering i Microsoft Fabric, så de sikkert kan accelerere deres AI-transformation.

Centrale innovationer i Microsoft Purview til Fabric

Microsofts annoncering på FabCon Atlanta fremhæver flere væsentlige opdateringer til Microsoft Purview, som forbedrer funktionerne til databeskyttelse og governance:

  • Data Loss Prevention (DLP)-politikker:

    • Nu generelt tilgængelige gør disse politikker det muligt for Fabric-administratorer at forhindre overdreven datadeling ved at udløse advarsler, når følsomme data registreres i aktiver, der uploades til Warehouses.
    • I preview kan administratorer begrænse adgang til følsomme data i KQL/SQL-databaser og Fabric Warehouses for at sikre, at kun autoriseret personale kan få adgang til disse oplysninger.
  • Forbedringer i Insider Risk Management (IRM):

    • IRM-funktioner er nu udvidet til Microsoft Fabric lakehouses, hvilket gør det muligt at registrere risikabel brugeradfærd såsom deling af data med eksterne parter.
    • En ny politik mod datatyveri hjælper med at identificere potentielle hændelser med dataeksfiltration og styrker dermed organisationens datasikkerhed.
    • Introduktionen af en pay-as-you-go-forbrugsrapport giver indsigt i fakturering og brugsmønstre, hvilket understøtter omkostningsstyring.
  • Forbedringer af governance og datakvalitet:

    • Unified Catalog i Purview er blevet forbedret, så dataejere kan administrere publiceringsworkflows for dataprodukter og ordlistebegreber, hvilket sikrer, at data governance opretholdes gennem hele livscyklussen.
    • Organisationer kan nu køre datakvalitetsvurderinger på aktiver uden governance, herunder Fabric-data, for at fremme brugen af data af høj kvalitet til AI-applikationer.

Indvirkning på IT-administratorer og slutbrugere

Disse innovationer er designet til at styrke IT-administratorer ved at give dem bedre værktøjer til at administrere datasikkerhed og compliance. Efterhånden som AI-anvendelsen vokser, bliver evnen til at beskytte følsomme data og opretholde governance-processer afgørende. For slutbrugere betyder disse forbedringer mere pålidelig adgang til data af høj kvalitet, så de kan udnytte AI-funktioner uden at gå på kompromis med sikkerheden.

Handlepunkter og næste skridt

  • Gennemgå DLP-politikker: Administratorer bør vurdere og implementere DLP-politikker for at reducere risikoen for overdreven datadeling i deres Fabric-miljøer.
  • Udnyt IRM-funktioner: Organisationer bør undersøge de nye IRM-funktioner for effektivt at overvåge og håndtere insider-risici.
  • Styrk data governance: Brug Unified Catalog til at etablere stærke governance-praksisser omkring dataprodukter og sikre datakvalitet på tværs af hele miljøet.

Konklusion

De nye Microsoft Purview-innovationer til Fabric er vigtige skridt mod at sætte organisationer i stand til sikkert at udnytte kraften i AI. Ved at fokusere på datasikkerhed og governance leverer Microsoft en robust ramme, der gør det muligt for organisationer at innovere trygt og ansvarligt.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Microsoft PurviewAI transformationdata governancesecuritydata quality

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.