Security

Copilot Studio-fejlkonfigurationer: 10 fund i Defender

3 min læsning

Resumé

Microsoft advarer om, at små fejlkonfigurationer i Copilot Studio-agenter kan skabe alvorlige sikkerhedsrisici, herunder for bred deling, manglende autentificering, usikre HTTP-kald og mulige veje til dataeksfiltration via e-mail. Det er vigtigt, fordi disse agenter ofte har adgang til data og handlinger i stor skala, og Microsoft Defender nu tilbyder 10 konkrete Advanced Hunting-forespørgsler, som kan hjælpe sikkerhedsteams med at opdage og afhjælpe problemerne tidligt.

Brug for hjælp med Security?Tal med en ekspert

Introduktion: derfor betyder det noget

Copilot Studio-agenter bliver hurtigt en integreret del af driftsworkflows—de forespørger på data, udløser handlinger og interagerer med systemer i stor skala. Defender Security Research Team advarer om, at små, velmenende konfigurationsvalg (bred deling, svag auth, risikable handlinger) stille og roligt kan blive eksponeringspunkter med stor effekt. Den gode nyhed: Microsoft Defender kan hjælpe dig med at opdage disse forhold tidligt ved hjælp af Advanced Hunting Community Queries.

Hvad er nyt: 10 fejlkonfigurationer at jage

Microsoft har publiceret en “one-page view” over de mest almindelige Copilot Studio-agentrisici observeret i virkelige miljøer, sammen med matchende detekteringer i Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → AI Agent folder).

Centrale risici, der fremhæves, inkluderer:

  • For bred deling (delt med hele organisationen eller brede grupper): øger angrebsfladen og utilsigtet brug.
  • Ingen authentication påkrævet: gør en agent til et offentligt/anonymt indgangspunkt, der kan eksponere intern data eller logik.
  • Risikable HTTP Request actions: brug af ikke-HTTPS, ikke-standardporte eller direkte kald til endpoints, som bør styres via connectors—omgår policy- og identity-sikringer.
  • E-mailbaserede dataeksfiltrationsveje: agenter, der kan sende e-mail til attacker-kontrollerede input eller eksterne postkasser (særligt farligt ved prompt injection).
  • Dvale agenter, handlinger eller forbindelser: “glemte” publicerede agenter og forældede forbindelser skaber skjult, privilegeret adgang.
  • Author (maker) authentication i produktion: bryder adskillelse af pligter og kan i praksis køre med forhøjede maker-rettigheder.
  • Hard-coded credentials i topics/actions: direkte risiko for credential-læk.
  • Model Context Protocol (MCP) tools konfigureret: kan introducere udokumenterede adgangsveje og utilsigtede systeminteraktioner.
  • Generative orchestration uden instruktioner: øger sandsynligheden for adfærdsdrift eller prompt-drevne usikre handlinger.
  • Orphaned agents (ingen aktiv ejer): svag governance, ingen ansvarlig vedligeholder og højere risiko for forældet logik.

Betydning for IT-admins og sikkerhedsteams

For admins, der håndterer Power Platform og Microsoft 365-sikkerhed, er hovedpointen, at agent-sikkerhedstilstand nu er en del af identity- og data governance. Fejlkonfigurationer kan skabe nye adgangsveje, som traditionelle app-inventarer, conditional access-antagelser eller connector-policies ikke nødvendigvis fanger fuldt ud—især når agenter hurtigt oprettes af makers.

Action items / næste skridt

  1. Kør Community Queries i Defenders Advanced Hunting (AI Agent folder) og baseline fund på tværs af miljøer.
  2. Prioritér udbedring for: ikke-autentificerede agenter, org-wide deling, maker-auth agenter og enhver ekstern e-mail-funktion.
  3. Gennemgå brug af HTTP Request og erstat med styrede connectors, hvor det er muligt; håndhæv HTTPS og standardporte.
  4. Ryd op i dvale/orphaned assets: udfas ubrugte agenter/handlinger og roter/fjern forældede forbindelser.
  5. Etabler operationelle guardrails: kræv navngiven ejer, dokumenteret formål, least-privilege forbindelser og obligatoriske instruktioner for generative orchestration.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.