SecurityBadanie Microsoft opisuje technikę GRP-Obliteration, która pokazuje, że nawet model wcześniej dostrojony pod bezpieczeństwo może zostać osłabiony podczas dalszego fine-tuningu — czasem wystarczy do tego pojedynczy szkodliwy prompt. To ważne dla firm wdrażających własne copiloty i chatboty, bo ujawnia, że alignment nie jest trwały, a bezpieczeństwo modeli wymaga stałego nadzoru, kontroli procesu treningu i silnego governance.
3 min czytania · Feb 9, 2026
SecurityMicrosoft ostrzega przed rzeczywistymi atakami na publicznie dostępne instancje SolarWinds Web Help Desk, w których niezałatane luki RCE pozwalają na nieuwierzytelnione wykonanie kodu i rozpoczęcie wieloetapowego włamania. Kampania jest groźna, bo napastnicy używają legalnych narzędzi administracyjnych, PowerShella, BITS i oprogramowania RMM do cichego utrzymania dostępu, kradzieży poświadczeń i potencjalnego przejęcia całej domeny, co pokazuje, że sama ochrona sygnaturowa nie wystarcza.
3 min czytania · Feb 7, 2026
SecurityCrashFix to nowy wariant ataku, który najpierw celowo powoduje awarie przeglądarki za pomocą złośliwego rozszerzenia, a następnie wyświetla fałszywy komunikat „naprawy”, nakłaniający ofiarę do samodzielnego uruchomienia poleceń. To ważne ostrzeżenie dla zespołów bezpieczeństwa, bo połączenie socjotechniki, LOLBins i skryptowych ładunków może skutecznie omijać tradycyjne zabezpieczenia oparte głównie na sygnaturach.
3 min czytania · Feb 5, 2026
SecurityMicrosoft wesprze prowadzoną przez FBI Cyber Division dziewięciotygodniową inicjatywę Operation Winter SHIELD, startującą 2 lutego 2026 r., której celem jest praktyczne wdrażanie kontroli bezpieczeństwa ograniczających najczęstsze przyczyny naruszeń, takie jak słabe poświadczenia, legacy authentication, nadmierne uprawnienia i błędne konfiguracje. To ważne, ponieważ program koncentruje się nie na samej polityce czy świadomości, ale na egzekwowaniu sprawdzonych zabezpieczeń w środowiskach produkcyjnych, co może realnie i mierzalnie obniżyć ryzyko cyberataków.
3 min czytania · Feb 5, 2026
SecurityMicrosoft opisuje nowe metody wykrywania backdoorów w modelach AI o otwartych wagach, wskazując trzy obserwowalne sygnatury, m.in. nietypowe wzorce attention po aktywacji triggera i gwałtowny spadek entropii wyjścia. To ważne dla firm wdrażających otwarte LLM-y, ponieważ pokazuje, że zainfekowane modele mogą wyglądać normalnie w testach, a mimo to skrycie wykonywać zachowania narzucone przez atakującego.
3 min czytania · Feb 4, 2026