Security

Copilot Studio-agenter: 10 feil Defender kan oppdage

3 min lesing

Sammendrag

Microsoft advarer om 10 vanlige feilkonfigurasjoner i Copilot Studio-agenter som kan føre til eksponering av data, omgåelse av sikkerhetskontroller og økt risiko for misbruk. Det viktige er at organisasjoner nå kan bruke ferdige Community Queries i Microsoft Defender Advanced Hunting til å oppdage slike problemer tidlig, før små oppsettfeil utvikler seg til alvorlige sikkerhetshendelser.

Trenger du hjelp med Security?Snakk med en ekspert

Introduksjon: derfor er dette viktig

Copilot Studio-agenter blir raskt bygget inn i operative arbeidsflyter—de spør etter data, utløser handlinger og samhandler med systemer i stor skala. Defender Security Research Team advarer om at små, velmente konfigurasjonsvalg (bred deling, svak autentisering, risikable handlinger) i det stille kan bli eksponeringer med stor konsekvens. Den gode nyheten: Microsoft Defender kan hjelpe deg med å oppdage disse forholdene tidlig ved å bruke Advanced Hunting Community Queries.

Hva er nytt: 10 feilkonfigurasjoner å jakte på

Microsoft har publisert en «one-page view» av de vanligste Copilot Studio-agentrisikoene observert i reelle miljøer, sammen med tilhørende deteksjoner i Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → AI Agent-mappen).

Viktige risikoer som fremheves inkluderer:

  • For bred deling (delt til hele organisasjonen eller brede grupper): øker angrepsflaten og utilsiktet bruk.
  • Ingen autentisering kreves: gjør en agent til et offentlig/anonymt inngangspunkt som kan eksponere interne data eller logikk.
  • Risikable HTTP Request-handlinger: bruk av ikke-HTTPS, ikke-standard porter, eller direkte kall til endepunkter som bør styres via connectors—omgår policy- og identitetssikringer.
  • E-postbaserte veier for dataeksfiltrasjon: agenter som kan sende e-post til angriper-kontrollerte mottakere eller eksterne postbokser (spesielt farlig ved prompt injection).
  • Sovende agenter, handlinger eller tilkoblinger: «glemte» publiserte agenter og utdaterte tilkoblinger skaper skjult, privilegert tilgang.
  • Forfatter- (maker-)autentisering i produksjon: bryter arbeidsdeling og kan i praksis kjøre med forhøyede maker-rettigheter.
  • Hardkodede legitimasjoner i topics/actions: direkte risiko for lekkasje av legitimasjon.
  • Model Context Protocol (MCP)-verktøy konfigurert: kan introdusere udokumenterte tilgangsveier og utilsiktede systeminteraksjoner.
  • Generative orchestration uten instruksjoner: øker sannsynligheten for atferdsdrift eller prompt-drevne utrygge handlinger.
  • Foreldreløse agenter (ingen aktiv eier): svak styring, ingen ansvarlig forvalter, og høyere risiko for utdatert logikk.

Konsekvens for IT-administratorer og sikkerhetsteam

For administratorer som forvalter Power Platform og Microsoft 365-sikkerhet, er hovedpoenget at sikkerhetsposisjonen til agenter nå er en del av identitets- og datastyring. Feilkonfigurasjoner kan skape nye tilgangsveier som tradisjonelle app-inventarer, antakelser om Conditional Access eller connector-policyer ikke fanger fullt ut—særlig når agenter raskt opprettes av makers.

Tiltak / neste steg

  1. Kjør Community Queries i Defenders Advanced Hunting (AI Agent-mappen) og etabler et grunnlag for funn på tvers av miljøer.
  2. Prioriter utbedring for: agenter uten autentisering, org-vid deling, maker-auth-agenter og all ekstern e-postfunksjonalitet.
  3. Gå gjennom HTTP Request-bruk og erstatt med styrte connectors der det er mulig; håndhev HTTPS og standard porter.
  4. Rydd opp i sovende/foreldreløse ressurser: avvikle ubrukte agenter/handlinger og roter/fjern utdaterte tilkoblinger.
  5. Etabler operasjonelle rammer (guardrails): krev navngitt eierskap, dokumentert formål, tilkoblinger med minst mulige rettigheter, og obligatoriske instruksjoner for generative orchestration.

Trenger du hjelp med Security?

Våre eksperter kan hjelpe deg med å implementere og optimalisere dine Microsoft-løsninger.

Snakk med en ekspert

Hold deg oppdatert om Microsoft-teknologier

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Relaterte innlegg

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.