AI-sikkerhed for CISO'er: praktisk vejledning
Resumé
Microsoft råder CISO'er til at sikre AI-systemer med de samme kernekontroller, de allerede bruger til software, identiteter og dataadgang. Vejledningen fremhæver mindst mulige rettigheder, forsvar mod prompt injection og brug af AI til at afdække rettighedsproblemer, før angribere eller brugere gør det.
Introduktion
Indførelsen af AI accelererer på tværs af virksomheder, men Microsofts seneste vejledning gør én ting klar: AI bør ikke behandles som magi. For CISO'er er den mest effektive tilgang at anvende velkendte sikkerhedsgrundprincipper på AI-systemer, samtidig med at man tager højde for nye risici som prompt injection og overeksponerede data.
Hvad Microsoft anbefaler
Microsoft beskriver AI som både en juniorassistent og et stykke software. Det betyder, at organisationer bør kombinere stærk governance med traditionelle sikkerhedskontroller.
Centrale sikkerhedsprincipper
- Behandl AI som software: AI-systemer arbejder med identiteter, tilladelser og adgangsveje ligesom andre applikationer.
- Brug least privilege og least agency: Giv kun AI de data, API'er og handlinger, den har brug for til sit specifikke formål.
- Lad aldrig AI træffe beslutninger om adgangskontrol: Autorisation bør forblive deterministisk og håndhæves af kontroller uden brug af AI.
- Tildel passende identiteter: Brug separate tjenesteidentiteter eller brugerafledte identiteter, der passer til anvendelsesscenariet.
- Test for skadelige input: Især når AI kan udføre væsentlige handlinger på vegne af brugere.
Nye AI-specifikke risici at holde øje med
Microsoft fremhæver indirect prompt injection attacks (XPIA) som en væsentlig bekymring. Det sker, når AI forveksler ikke-betroet indhold med instruktioner, som for eksempel skjult tekst indlejret i CV'er eller dokumenter.
For at reducere denne risiko anbefaler Microsoft:
- At bruge beskyttelser som Spotlighting og Prompt Shield
- Nøje at validere, hvordan AI håndterer eksternt eller ikke-betroet indhold
- At opdele opgaver i mindre, eksplicitte trin for at forbedre pålideligheden og reducere fejl
Hvorfor dette er vigtigt for IT- og sikkerhedsteams
En af de vigtigste konklusioner er, at AI kan afsløre eksisterende problemer med datahygiejne og rettighedsstyring hurtigere end traditionel søgning eller manuel gennemgang. Fordi AI gør tilgængelige data lettere at finde og sammenfatte, kan brugere få vist information, de teknisk set havde adgang til, men som det aldrig var forventet, at de nemt kunne finde.
Microsoft foreslår en praktisk test: Brug en standardbrugerkonto med Microsoft 365 Copilot Researcher mode og spørg om fortrolige emner, som den bruger ikke bør have adgang til. Hvis AI finder følsomme oplysninger, kan det afsløre underliggende huller i rettigheder, som kræver øjeblikkelig oprydning.
Anbefalede næste skridt
Sikkerhedsteams bør gennemgå AI-implementeringer op imod eksisterende Zero Trust-principper og politikker for datastyring.
- Revider rettigheder og fjern overprovisioneret adgang
- Gennemgå, hvor følsomme data befinder sig på tværs af det digitale miljø
- Styrk identitetskontroller og just-in-time-adgang
- Bloker ældre protokoller og formater, der ikke længere er nødvendige
- Tilføj prompt injection-test til AI-sikkerhedsvurderinger
- Definér klare punkter for menneskelig godkendelse ved konsekvensfulde AI-handlinger
Konklusion
Microsofts budskab til CISO'er er praktisk: Beskyt AI på samme måde, som du beskytter ethvert kraftfuldt softwaresystem, og tilføj derefter kontroller for AI-specifikke fejltilstande. Organisationer, der forbedrer datahygiejne, strammer adgang op og validerer AI-adfærd, vil være bedre rustet til at indføre AI sikkert i stor skala.
Brug for hjælp med Security?
Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.
Tal med en ekspertHold dig opdateret om Microsoft-teknologier