Security

AI-browserudvidelser stjal LLM-chathistorikker

3 min læsning

Resumé

Microsoft Defender har afsløret ondsindede Chromium-browserudvidelser, der udgiver sig for at være legitime AI-assistenter og i hemmelighed stjæler chathistorikker, prompts, svar og URL’er fra tjenester som ChatGPT og DeepSeek. Det er alvorligt, fordi udvidelserne blev installeret i stor skala via betroede markedspladser og kan føre til læk af følsomme virksomhedsdata uden at ligne traditionel malware.

Brug for hjælp med Security?Tal med en ekspert

Introduktion: Hvorfor dette er vigtigt

AI-assistent-browserudvidelser bliver stadig mere almindelige "produktivitets"-tilføjelser for vidensmedarbejdere, især for hurtig adgang til værktøjer som ChatGPT og DeepSeek. Microsoft Defenders undersøgelse viser, hvordan denne bekvemmelighed kan blive en kanal for datatab i virksomheder: en look-alike-udvidelse installeret fra en betroet markedsplads kan løbende indsamle og eksfiltrere følsomme prompts, svar og interne URL’er uden at opføre sig som traditionel malware.

Hvad er nyt / vigtigste fund

Microsoft Defender undersøgte ondsindede Chromium-udvidelser, der:

  • Imiterer legitime AI-assistentudvidelser ved at bruge velkendt branding og tilladelsesprompter (Defender bemærker imitation af velkendte værktøjer som AITOPIA).
  • Indsamler LLM-chatindhold og browsingtelemetri, herunder:
    • Fuldstændige besøgte URL’er (herunder interne sites)
    • Chatuddrag (prompts og svar) fra platforme som ChatGPT og DeepSeek
    • Modelidentifikatorer, navigationskontekst og en vedvarende UUID
  • Persistener som normale udvidelser (automatisk genindlæsning ved browserstart, lagring af telemetri i lokal udvidelseslagring).
  • Eksfiltrerer data periodisk via HTTPS POST, hvilket kan ligne almindelig webtrafik.

Defender-rapportering indikerer, at udvidelserne nåede omkring 900.000 installationer, og Defender-telemetri bekræfter aktivitet på tværs af mere end 20.000 enterprise-tenants.

Sådan fungerer angrebet (på et overordnet niveau)

  • Levering: Udgivet i Chrome Web Store med AI-relaterede beskrivelser. Fordi Microsoft Edge understøtter udvidelser fra Chrome Web Store, giver den samme listing rækkevidde på tværs af browsere.
  • Udnyttelse af tillid og tilladelser: Bredde Chromium-udvidelsestilladelser gjorde det muligt at observere sideindhold og browsingaktivitet. Der blev brugt en vildledende samtykkemekanisme, og opdateringer kunne genaktivere telemetri som standard selv efter, at brugere havde fravalgt det.
  • Command and control: Periodiske uploads til angriberkontrollerede domæner som deepaichats[.]com og chatsaigpt[.]com, hvor lokale buffere ryddes efter transmission for at reducere spor.

Konsekvenser for IT-administratorer og slutbrugere

  • Risiko for datalækage: Prompts indeholder ofte proprietær kode, interne processer, strategidiskussioner, legitimationsoplysninger kopieret ind i chats og andet fortroligt indhold. Eksfiltration af fulde URL’er kan afsløre strukturen i interne applikationer og følsomme query strings.
  • Compliance- og privatlivseksponering: Indfanget chathistorik kan indeholde regulerede eller personlige data, hvilket komplicerer forpligtelser vedrørende opbevaring, eDiscovery og data residency.
  • Udvidelsesrisiko bliver "altid aktiv": I modsætning til en enkelt phishinghændelse kan en ondsindet udvidelse skabe kontinuerlig synlighed i brugeraktivitet på tværs af sessioner.

Anbefalede handlinger / næste skridt

  1. Hunt efter og bloker kendte eksfiltreringsendpoints ved at overvåge udgående HTTPS POST-trafik og anvende netværkskontroller for:
    • *.chatsaigpt.com
    • *.deepaichats.com
    • *.chataigpt.pro
    • *.chatgptsidebar.pro
  2. Inventariser og auditér browserudvidelser på tværs af administrerede endpoints med fokus på AI-/sidebar-værktøjer med brede sitetilladelser.
  3. Stram styringen af udvidelser:
    • Brug allowlisting for godkendte udvidelser
    • Begræns installationskilder, hvor det er muligt
    • Gennemgå opdateringsadfærd og permission drift
  4. Brug Microsoft Defender Vulnerability Management til at køre Browser extensions assessment, identificere risikable udvidelser og prioritere afhjælpning.
  5. Uddan brugerne: behandl AI-chats som følsom kommunikation — undgå at indsætte hemmeligheder, tokens eller proprietært indhold, medmindre værktøjet og adgangsvejen er eksplicit godkendt.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Microsoft Defenderbrowser extensionsdata exfiltrationAI securityChromium

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.