Security

Copilot Studio fejlkonfigurationer: 10 risici og fund

3 min læsning

Resumé

Microsoft advarer om, at fejlkonfigurationer i Copilot Studio-agenter kan åbne skjulte veje til dataadgang, identitetsmisbrug og dataeksfiltration, især når agenter deles for bredt, mangler stærk godkendelse eller bruger usikre handlinger. Det er vigtigt, fordi agenter i stigende grad fungerer som et nyt kontrolplan for automatisering og adgang, og Microsoft nu peger på ti konkrete risici samt Defender Advanced Hunting-queries og afværgeforanstaltninger, der kan hjælpe organisationer med at finde og lukke hullerne.

Brug for hjælp med Security?Tal med en ekspert

Introduktion: hvorfor dette er vigtigt

Agenter er hurtigt ved at blive et nyt kontrolplan for dataadgang og automatisering af arbejdsgange – ofte bygget og implementeret hurtigt gennem low-code-værktøjer som Copilot Studio. Microsoft advarer om, at små konfigurationsvalg (bred deling, usikre handlinger, svag godkendelse, forældet ejerskab) kan skabe identitets- og dataadgangsveje, som traditionelle sikkerhedskontroller måske ikke overvåger. Nettoeffekten er, at fejlkonfigurerede agenter i det skjulte kan udvide din angrebsflade og muliggøre prompt-drevet misbrug eller dataeksfiltration.

Hvad er nyt: 10 almindelige fejlkonfigurationer i agenter (og hvordan de opdages)

Microsoft dokumenterer ti fejlkonfigurationer set “in the wild” og knytter hver af dem til Defender Advanced Hunting Community Queries (Security portal → Advanced hunting → Queries → Community Queries → AI Agent-mappen) samt anbefalede afværgeforanstaltninger i Copilot Studio/Power Platform.

Vigtige temaer omfatter:

1) For bred deling og svage adgangsgrænser

  • Risiko: Agenter delt med hele organisationen eller brede grupper.
  • Opdag: Queries som AI Agents – Organization or Multitenant Shared.
  • Afhjælp: Brug Managed Environments og agent sharing limits; valider miljøstrategi og delingsomfang.

2) Manglende eller inkonsekvent godkendelse

  • Risiko: Agenter, der ikke kræver godkendelse, bliver et offentligt indgangspunkt.
  • Opdag: AI Agents – No Authentication Required.
  • Afhjælp: Håndhæv agent authentication at the environment level (godkendelse er slået til som standard – lemp den ikke til test uden beskyttelsesforanstaltninger).

3) Risikable handlinger, connectors og eksfiltrationsveje

  • Risiko: HTTP Request-handlinger med usikre indstillinger (ikke-HTTPS, ikke-standardporte) eller mailhandlinger, der muliggør dataeksfiltration.
  • Opdag: Queries, der dækker HTTP Request-mønstre og email til eksterne/AI-kontrollerede input.
  • Afhjælp: Anvend Data Policies / Advanced Connector Policies, og overvej Microsoft Defender Real-time Protection samt connector action controls.

4) Governance-drift: inaktive, forældreløse og overprivilegerede agenter

  • Risiko: Inaktive agenter/forbindelser, author (maker)-godkendelse, forældreløse agenter med deaktiverede ejere, hardcoded legitimationsoplysninger.
  • Opdag: Queries for inaktive/uændrede agenter, author auth, hardcoded credentials og forældreløse ejere.
  • Afhjælp: Gennemgå regelmæssigt inventory, begræns maker-legitimationsoplysninger, opbevar secrets i Azure Key Vault via environment variables, og sæt forældede agenter i karantæne eller udfas dem.

5) Nye værktøjs- og orkestreringsrisici

  • Risiko: MCP tools og generativ orkestrering uden klare instruktioner (adfærdsdrift/prompt-misbrug).
  • Opdag: MCP konfigureret og orkestrering uden instruktioner.
  • Afhjælp: Begræns MCP tooling via politikker; brug indbyggede guardrails (f.eks. Azure Prompt Shield/RAI controls), og publicér med klare instruktioner.

Konsekvenser for IT-administratorer og sikkerhedsteams

  • Forvent, at agenter introducerer ikke-traditionelle adgangsveje (connectors, MCP tools, email actions), som kan omgå ældre overvågning.
  • Low-code-hastighed øger sandsynligheden for fejlkonfiguration i stor skala, især på tværs af flere Power Platform-miljøer.
  • Governance-problemer (ejerskab, inaktivitet, maker-legitimationsoplysninger) kan skabe vedvarende, sværttilgængelig risiko.

Anbefalede næste skridt

  1. Kør AI Agent Community Queries i Defender Advanced Hunting, og opret en baseline for resultater pr. miljø.
  2. Håndhæv godkendelse på miljøniveau, og gennemgå eventuelle undtagelser.
  3. Implementér/valider Managed Environments, sharing limits og Data/Connector policies.
  4. Gennemgå for author authentication, hardcoded secrets og orphaned/dormant agents; afhjælp og udfas, hvor det er relevant.
  5. Dokumentér vejledning til sikker udvikling for makers (HTTP best practices, håndtering af secrets, kvalitet af instruktioner), og tilføj den til intern onboarding.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Copilot StudioMicrosoft DefenderAdvanced HuntingPower Platform governanceAI security

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.