Security

Microsoft Defender deteta falhas no Copilot Studio

3 min de leitura

Resumo

A Microsoft alertou para 10 más configurações frequentes no Copilot Studio — como partilha excessiva, ausência de autenticação obrigatória e ações HTTP arriscadas — que podem expor dados e abrir portas a abusos em agentes de IA. A novidade é que estas falhas já podem ser detetadas de forma proativa com consultas da comunidade no Microsoft Defender Advanced Hunting, o que ajuda as organizações a identificar e corrigir riscos antes de terem impacto operacional ou de segurança.

Precisa de ajuda com Security?Fale com um especialista

Introduction: why this matters

Os agentes do Copilot Studio estão rapidamente a ser incorporados em fluxos de trabalho operacionais — a consultar dados, a acionar ações e a interagir com sistemas em escala. A Defender Security Research Team está a alertar que pequenas escolhas de configuração bem-intencionadas (partilha ampla, autenticação fraca, ações arriscadas) podem, discretamente, tornar-se pontos de exposição de alto impacto. A boa notícia: o Microsoft Defender pode ajudar a detetar estas condições cedo usando Advanced Hunting Community Queries.

What’s new: 10 misconfigurations to hunt for

A Microsoft publicou uma “one-page view” dos riscos mais comuns em agentes do Copilot Studio observados em ambientes reais, juntamente com deteções correspondentes no Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → pasta AI Agent).

Principais riscos destacados incluem:

  • Partilha excessivamente ampla (partilhado com toda a organização ou grupos amplos): aumenta a superfície de ataque e o uso não intencional.
  • Sem autenticação obrigatória: transforma um agente num ponto de entrada público/anónimo que pode expor dados internos ou lógica.
  • Ações HTTP Request de risco: uso de não-HTTPS, portas não standard ou chamadas diretas a endpoints que deveriam ser controlados via connectors — contornando políticas e salvaguardas de identidade.
  • Caminhos de exfiltração de dados via email: agentes que conseguem enviar email para inputs controlados por atacantes ou caixas de correio externas (especialmente perigoso com prompt injection).
  • Agentes, ações ou ligações dormentes: agentes publicados “esquecidos” e ligações desatualizadas criam acesso privilegiado oculto.
  • Autenticação do autor (maker) em produção: quebra a separação de funções e pode, na prática, executar com permissões elevadas do maker.
  • Credenciais hard-coded em tópicos/ações: risco direto de exposição de credenciais.
  • Ferramentas Model Context Protocol (MCP) configuradas: podem introduzir caminhos de acesso não documentados e interações não intencionais com sistemas.
  • Orquestração generativa sem instruções: aumenta a probabilidade de desvio de comportamento ou de ações inseguras orientadas por prompts.
  • Agentes órfãos (sem owner ativo): governance fraca, ausência de responsável e maior risco de lógica desatualizada.

Impact on IT admins and security teams

Para admins que gerem a segurança do Power Platform e do Microsoft 365, a principal conclusão é que a postura de segurança dos agentes passou a fazer parte da governance de identidade e dados. Configurações incorretas podem criar novos caminhos de acesso que inventários tradicionais de aplicações, pressupostos de conditional access ou políticas de connectors podem não capturar totalmente — especialmente quando os agentes são criados rapidamente por makers.

Action items / next steps

  1. Executar as Community Queries no Advanced Hunting do Defender (pasta AI Agent) e criar uma baseline de conclusões em todos os ambientes.
  2. Priorizar a remediação para: agentes sem autenticação, partilha ao nível da organização, agentes com autenticação do maker e qualquer capacidade de email externo.
  3. Rever o uso de HTTP Request e substituir por connectors governados sempre que possível; impor HTTPS e portas standard.
  4. Limpar ativos dormentes/órfãos: desativar agentes/ações não utilizados e rodar/remover ligações desatualizadas.
  5. Estabelecer guardrails operacionais: exigir ownership nominal, propósito documentado, ligações com least privilege e instruções obrigatórias para orquestração generativa.

Precisa de ajuda com Security?

Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.

Fale com um especialista

Fique atualizado sobre as tecnologias Microsoft

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Posts relacionados

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.