Security

Copilot Studio-agenter: 10 fejlkonfigurationer nu

3 min læsning

Resumé

Microsoft advarer om 10 udbredte fejlkonfigurationer i Copilot Studio-agenter, som kan åbne for datalækage, for brede adgangsrettigheder og omgåelse af governance-kontroller. Det er vigtigt, fordi disse agenter i stigende grad er koblet til forretningskritiske workflows, og Microsoft har derfor offentliggjort konkrete Defender Advanced Hunting-forespørgsler, så organisationer proaktivt kan finde og afhjælpe risici.

Brug for hjælp med Security?Tal med en ekspert

Introduktion: hvorfor det betyder noget

Copilot Studio-agenter bliver hurtigt indlejret i driftsworkflows—de henter data, udløser handlinger og interagerer med interne systemer i stor skala. Den samme automatisering skaber også nye angrebsveje, når agenter deles forkert, kører med for høje privilegier eller omgår standard governance-kontroller. Microsofts Defender Security Research-team ser disse problemer “in the wild”, ofte uden tydelige alarmer, hvilket gør proaktiv opdagelse og løbende posture management afgørende.

Hvad er nyt: 10 almindelige Copilot Studio-agentrisici (og sådan opdager du dem)

Microsoft har publiceret en praktisk top-10-liste over fejlkonfigurationer for agenter og knyttet hver enkelt til Microsoft Defender Advanced Hunting Community Queries (Security portal → Advanced huntingQueriesCommunity queriesAI Agent folder). Centrale risici omfatter:

  1. For bred deling (hele organisationen eller store grupper) – udvider angrebsfladen og muliggør utilsigtet brug.
  2. Ingen godkendelse kræves – skaber offentlige/anonyme indgangspunkter og potentiel datalækage.
  3. Risikable HTTP Request-actions – kald til connector-endpoints, ikke-HTTPS eller ikke-standardporte kan omgå connector governance og identitetskontroller.
  4. Email-baserede dataeksfiltrationsveje – agenter, der sender email til AI-styrede værdier eller eksterne mailbokse, kan muliggøre prompt-injection-drevet eksfiltration.
  5. Inaktive agenter/actions/connections – forældede komponenter bliver en skjult angrebsflade med vedvarende privilegier.
  6. Author (maker) authentication – undergraver adskillelse af pligter og kan muliggøre privilege escalation.
  7. Hard-coded credentials i topics/actions – øger sandsynligheden for credential leakage og genbrug.
  8. Model Context Protocol (MCP) tools konfigureret – kan introducere udokumenterede adgangsveje og utilsigtede systeminteraktioner.
  9. Generative orchestration uden instruktioner – højere risiko for afvigende adfærd og prompt-misbrug.
  10. Orphaned agents (ingen aktiv ejer) – svag governance og uadministreret adgang over tid.

Betydning for IT-admins og sikkerhedsteams

  • Synlighedsgab: Disse fejlkonfigurationer ser ofte ikke ondsindede ud ved oprettelse og udløser muligvis ikke traditionelle alarmer.
  • Eksponering af identitet og data: Uautentificeret adgang, maker-credentials og bred deling kan gøre en agent til et friktionsløst pivot ind i organisatoriske data.
  • Omgåelse af governance: Direkte HTTP-actions kan omgå Power Platform connector-beskyttelser (validering, throttling, identitetshåndhævelse).
  • Operationel risiko: Orphaned eller inaktive agenter bevarer forretningslogik og adgang længe efter, at ejerskab og formål er uklare.

Action items / næste skridt

  1. Kør AI Agent Community Queries nu, og lav en baseline af resultaterne (start med: org-wide sharing, no-auth agents, author authentication, hard-coded credentials).
  2. Stram deling og godkendelse: håndhæv least-privilege access, og kræv authentication for alle produktionsagenter.
  3. Gennemgå brug af HTTP Request: foretræk governed connectors; flag ikke-HTTPS og ikke-standardporte til øjeblikkelig afhjælpning.
  4. Kontrollér scenarier for udgående email: begræns eksterne modtagere, valider dynamiske inputs, og overvåg for prompt-injection-lignende mønstre.
  5. Etabler lifecycle governance: lav inventory over agenter, fjern eller tildel ny ejer til orphaned agents, og afvikl inaktive connections/actions.

Ved at behandle agentkonfiguration som en del af din security posture—og løbende jagte disse mønstre—kan du reducere eksponeringen, før angribere operationaliserer den.

Brug for hjælp med Security?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Copilot StudioMicrosoft DefenderAdvanced HuntingAI securityPower Platform governance

Relaterede indlæg

Security

Trivy supply chain compromise: Defender-guide

Microsoft har udgivet vejledning til detektion, undersøgelse og afhjælpning af Trivy supply chain compromise i marts 2026, som påvirkede Trivy-binæren og relaterede GitHub Actions. Hændelsen er vigtig, fordi den gjorde betroet CI/CD-sikkerhedsværktøj til et våben for at stjæle legitimationsoplysninger fra build-pipelines, cloud-miljøer og udviklersystemer, mens det så ud til at køre normalt.

Security

AI-agentstyring: Afstemning af intention for sikkerhed

Microsoft skitserer en styringsmodel for AI-agenter, der afstemmer bruger-, udvikler-, rollebaseret og organisatorisk intention. Rammeværket hjælper virksomheder med at holde agenter nyttige, sikre og compliant ved at definere adfærdsgrænser og en klar rækkefølge, når konflikter opstår.

Security

Microsoft Defender predictive shielding stopper GPO-ransomware

Microsoft beskrev en reel ransomware-sag, hvor Defenders predictive shielding opdagede ondsindet misbrug af Group Policy Object (GPO), før krypteringen begyndte. Ved at hærdne GPO-udrulning og afbryde kompromitterede konti blokerede Defender cirka 97 % af de forsøgte krypteringsaktiviteter og forhindrede, at nogen enheder blev krypteret via GPO-leveringsvejen.

Security

Microsoft sikkerhed til agentic AI på RSAC 2026

Microsoft præsenterede på RSAC 2026 en samlet sikkerhedsstrategi for agentic AI og annoncerede, at Agent 365 bliver generelt tilgængelig 1. maj som et kontrolplan til at overvåge, beskytte og styre AI-agenter i stor skala. Samtidig udvider virksomheden synligheden i AI-risici med nye og kommende værktøjer som Security Dashboard for AI, Shadow AI Detection i Entra og forbedret Intune-appinventar, hvilket er vigtigt for virksomheder, der vil bruge AI sikkert uden at miste kontrol over data, identiteter og skygge-IT.

Security

Microsoft CTI-REALM benchmark til AI detection engineering

Microsoft har lanceret CTI-REALM, en open-source benchmark, der måler om AI-agenter faktisk kan udføre detection engineering fra ende til anden ud fra threat intelligence-rapporter frem for blot at svare på sikkerhedsspørgsmål. Det er vigtigt for SOC- og sikkerhedsteams, fordi benchmarken tester realistiske workflows, værktøjer og mellemtrin på tværs af Linux, AKS og Azure, hvilket kan give et mere retvisende billede af, hvor moden AI er til operationelt sikkerhedsarbejde.

Security

Zero Trust for AI: Microsofts nye sikkerhedsmodel

Microsoft har lanceret Zero Trust for AI, som overfører de velkendte principper om eksplicit verifikation, mindst mulige privilegier og antagelse om brud til AI-miljøer med modeller, agenter og datakilder. Samtidig udvider virksomheden sin Zero Trust Workshop med en ny AI-søjle og opdaterede vurderingsværktøjer, så organisationer mere systematisk kan identificere og håndtere AI-specifikke trusler som prompt injection og data poisoning. Det er vigtigt, fordi virksomheder får en konkret ramme til at gøre AI-udrulning mere sikker og moden på tværs af IT, sikkerhed og forretning.