Osnove AI bezbednosti: praktične smernice za CISO
Sažetak
Microsoft savetuje CISO-ima da zaštite AI sisteme primenom istih osnovnih kontrola koje već koriste za softver, identitete i pristup podacima. Smernice ističu princip najmanjih privilegija, odbranu od prompt injection napada i korišćenje samog AI-ja za otkrivanje problema sa dozvolama pre nego što to učine napadači ili korisnici.
Uvod
Usvajanje AI-ja se ubrzava širom preduzeća, ali Microsoft u najnovijim smernicama jasno poručuje jedno: AI ne treba posmatrati kao magiju. Za CISO-e, najefikasniji pristup je primena poznatih osnova bezbednosti na AI sisteme, uz uvažavanje novih rizika kao što su prompt injection i prekomerno izloženi podaci.
Šta Microsoft preporučuje
Microsoft AI predstavlja i kao mlađeg asistenta i kao deo softvera. To znači da organizacije treba da kombinuju snažno upravljanje sa tradicionalnim bezbednosnim kontrolama.
Ključni bezbednosni principi
- Posmatrajte AI kao softver: AI sistemi funkcionišu sa identitetima, dozvolama i putanjama pristupa kao i druge aplikacije.
- Primena principa najmanjih privilegija i najmanje autonomije: Dajte AI-ju samo podatke, API-je i radnje koje su mu potrebne za konkretnu svrhu.
- Nikada ne dozvolite AI-ju da donosi odluke o kontroli pristupa: Autorizacija treba da ostane deterministička i sprovedena kontrolama koje nisu zasnovane na AI-ju.
- Dodelite odgovarajuće identitete: Koristite odvojene servisne identitete ili identitete izvedene iz korisnika, usklađene sa konkretnim slučajem upotrebe.
- Testirajte zlonamerne ulaze: Posebno kada AI može da preduzima značajne radnje u ime korisnika.
Novi AI-specifični rizici na koje treba obratiti pažnju
Microsoft ističe indirect prompt injection attacks (XPIA) kao veliki problem. Do toga dolazi kada AI nepouzdan sadržaj pogrešno protumači kao instrukcije, na primer skriveni tekst ugrađen u biografije ili dokumente.
Da bi se ovaj rizik smanjio, Microsoft preporučuje:
- Korišćenje zaštita kao što su Spotlighting i Prompt Shield
- Pažljivu proveru načina na koji AI obrađuje spoljašnji ili nepouzdan sadržaj
- Deljenje zadataka na manje, eksplicitne korake radi veće pouzdanosti i manjeg broja grešaka
Zašto je ovo važno za IT i bezbednosne timove
Jedan od najvažnijih zaključaka jeste da AI može brže od tradicionalne pretrage ili ručne provere da otkrije postojeće probleme sa higijenom podataka i dodelom dozvola. Pošto AI olakšava pronalaženje i sintetizovanje dostupnih podataka, korisnici mogu doći do informacija kojima su tehnički imali pristup, ali se nikada nije očekivalo da ih lako pronađu.
Microsoft predlaže praktičan test: koristite standardni korisnički nalog sa Microsoft 365 Copilot Researcher režimom i postavite pitanja o poverljivim temama kojima taj korisnik ne bi trebalo da ima pristup. Ako AI pronađe osetljive informacije, to može ukazivati na osnovne nedostatke u dozvolama koje treba hitno otkloniti.
Preporučeni naredni koraci
Bezbednosni timovi treba da preispitaju AI implementacije u odnosu na postojeće Zero Trust principe i politike upravljanja podacima.
- Proverite dozvole i uklonite prekomerno dodeljen pristup
- Pregledajte gde se osetljivi podaci nalaze širom digitalnog okruženja
- Ojačajte kontrole identiteta i just-in-time pristup
- Blokirajte zastarele protokole i formate koji više nisu potrebni
- Dodajte testiranje prompt injection napada u AI bezbednosne procene
- Definišite jasne tačke ljudskog odobravanja za AI radnje sa značajnim posledicama
Suština
Microsoft poruka za CISO-e je praktična: obezbedite AI na isti način na koji štitite svaki moćan softverski sistem, a zatim dodajte kontrole za AI-specifične načine otkaza. Organizacije koje unaprede higijenu podataka, pooštre pristup i potvrde ponašanje AI-ja biće u boljoj poziciji da bezbedno usvajaju AI u velikom obimu.
Trebate pomoć sa Security?
Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.
Razgovarajte sa stručnjakomBudite u toku sa Microsoft tehnologijama