Security

Copilot Studio: 10 configurações incorretas críticas

3 min de leitura

Resumo

A Microsoft identificou 10 configurações incorretas críticas no Copilot Studio que podem expor dados, alargar a superfície de ataque e permitir abuso de privilégios, incluindo partilha excessiva, ausência de autenticação e ações HTTP inseguras. A novidade é que cada risco foi mapeado para consultas de Advanced Hunting no Microsoft Defender, o que facilita a deteção proativa e ajuda as equipas de segurança a reforçar a governance dos agentes antes que ocorram incidentes.

Precisa de ajuda com Security?Fale com um especialista

Introdução: porque isto importa

Os agentes do Copilot Studio estão a tornar-se rapidamente parte integrante dos fluxos de trabalho operacionais — a obter dados, a acionar ações e a interagir com sistemas internos à escala. Essa mesma automação também cria novos caminhos de ataque quando os agentes são partilhados indevidamente, executados com privilégios excessivos ou contornam controlos padrão de governance. A equipa de Microsoft Defender Security Research está a ver estes problemas “no terreno”, muitas vezes sem alertas óbvios, tornando essencial a descoberta proativa e a gestão de postura.

O que há de novo: 10 riscos comuns em agentes do Copilot Studio (e como os detetar)

A Microsoft publicou uma lista prática das 10 principais configurações incorretas de agentes e mapeou cada uma para Microsoft Defender Advanced Hunting Community Queries (Security portal → Advanced huntingQueriesCommunity queries → pasta AI Agent). Os principais riscos incluem:

  1. Partilha demasiado ampla (toda a organização ou grandes grupos) – aumenta a superfície de ataque e permite utilização não intencional.
  2. Sem autenticação obrigatória – cria pontos de entrada públicos/anónimos e potencial fuga de dados.
  3. Ações HTTP Request arriscadas – chamadas para endpoints de conectores, não-HTTPS ou portas não padrão podem contornar a governance de conectores e os controlos de identidade.
  4. Caminhos de exfiltração de dados por email – agentes que enviam email para valores controlados por AI ou caixas de correio externas podem permitir exfiltração impulsionada por prompt injection.
  5. Agentes/ações/ligações inativos – componentes obsoletos tornam-se uma superfície de ataque oculta com privilégios persistentes.
  6. Autenticação do autor (maker) – enfraquece a separação de funções e pode permitir escalada de privilégios.
  7. Credenciais hard-coded em tópicos/ações – aumenta a probabilidade de fuga e reutilização de credenciais.
  8. Ferramentas Model Context Protocol (MCP) configuradas – podem introduzir caminhos de acesso não documentados e interações não intencionais com sistemas.
  9. Orquestração generativa sem instruções – maior risco de desvio de comportamento e abuso de prompts.
  10. Agentes órfãos (sem owner ativo) – governance fraca e acesso não gerido ao longo do tempo.

Impacto para administradores de TI e equipas de segurança

  • Lacuna de visibilidade: estas configurações incorretas muitas vezes não parecem maliciosas durante a criação e podem não acionar alertas tradicionais.
  • Exposição de identidade e dados: acesso não autenticado, credenciais do maker e partilha ampla podem transformar um agente num pivô de baixa fricção para dados organizacionais.
  • Contorno de governance: ações HTTP diretas podem contornar proteções de conectores do Power Platform (validação, throttling, imposição de identidade).
  • Risco operacional: agentes órfãos ou inativos preservam lógica de negócio e acessos muito depois de a propriedade e a intenção serem incertas.

Itens de ação / próximos passos

  1. Execute as AI Agent Community Queries agora e estabeleça uma baseline dos resultados (comece por: partilha a nível da organização, agentes sem autenticação, autenticação do autor, credenciais hard-coded).
  2. Reforce a partilha e a autenticação: imponha acesso de menor privilégio e exija autenticação para todos os agentes em produção.
  3. Reveja a utilização de HTTP Request: prefira conectores governados; sinalize não-HTTPS e portas não padrão para remediação imediata.
  4. Controle cenários de email de saída: restrinja destinatários externos, valide inputs dinâmicos e monitorize padrões ao estilo prompt injection.
  5. Estabeleça governance do ciclo de vida: inventarie agentes, remova ou atribua novo owner a agentes órfãos e desative ligações/ações inativas.

Ao tratar a configuração de agentes como parte da sua postura de segurança — e ao procurar continuamente estes padrões — pode reduzir a exposição antes de os atacantes a operacionalizarem.

Precisa de ajuda com Security?

Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.

Fale com um especialista

Fique atualizado sobre as tecnologias Microsoft

Copilot StudioMicrosoft DefenderAdvanced HuntingAI securityPower Platform governance

Posts relacionados

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.