SecurityMicrosoft Research advarer om, at selv små fine-tuning-ændringer kan underminere sikkerhedsafstemte LLM’er: Med metoden GRP-Obliteration kan en model trænes væk fra sine guardrails ved hjælp af blot én eller få skadelige prompts og en “judge”-model, der belønner farlig efterlevelse. Det er vigtigt, fordi det viser, at AI-sikkerhed ikke er permanent, men kan forringes under tilpasning—og derfor kræver stærkere governance, evaluering og kontrol hos organisationer, der bygger egne copilots, chatbots og specialmodeller.
3 min læsning · Feb 9, 2026
SecurityMicrosoft har observeret aktive angreb mod internet-eksponerede SolarWinds Web Help Desk-servere, hvor uautentificeret RCE bruges som indgangspunkt til at hente payloads, installere legitim fjernadministrationssoftware og bevæge sig videre mod domænekompromittering. Det er vigtigt, fordi angriberne anvender “living-off-the-land”-teknikker og legitime værktøjer, som kan være svære at opdage, hvilket gør hurtig patching, eksponeringsreduktion og tæt overvågning af WHD-miljøer særlig kritisk.
3 min læsning · Feb 7, 2026
SecurityCrashFix er en ny malwarevariant, der kombinerer en ondsindet browserudvidelse med bevidst browser-nedbrud for at lokke brugere til selv at køre skadelige kommandoer via en falsk “fix”-prompt. Det er vigtigt, fordi angrebet udnytter social engineering, LOLBins og brugerinitieret eksekvering til at omgå traditionelle signaturbaserede sikkerhedsforanstaltninger og dermed øger risikoen for skjult kompromittering.
3 min læsning · Feb 5, 2026
SecurityMicrosoft støtter FBI Cyber Divisions ni-ugers initiativ Operation Winter SHIELD, der starter 2. februar 2026 og skal hjælpe organisationer med at omsætte sikkerhedspolitikker til konkret, håndhævet beskyttelse i drift. Initiativet fokuserer på velkendte svagheder som svage credentials, legacy authentication, for brede rettigheder og fejlkonfigurationer, og det er vigtigt, fordi det adresserer de praktiske eksekveringsfejl, som angribere stadig oftest udnytter i virkelige angreb.
3 min læsning · Feb 5, 2026
SecurityMicrosoft Research viser, at backdoorede open-weight sprogmodeller kan afsløres gennem målbare mønstre som “attention hijacking”, en karakteristisk “double triangle”-struktur og kollaps i output-entropi, når en skjult trigger aktiveres. Det er vigtigt, fordi virksomheder i stigende grad bruger open-weight modeller i kritiske workflows, og forskningen peger på nye måder at opdage skjulte modelangreb, som traditionelle sikkerhedstests let kan overse.
3 min læsning · Feb 4, 2026