Copilot Studio Agents 安全:Defender 揭示 10 大错误配置
摘要
微软 Defender 安全研究团队披露了 Copilot Studio Agents 的 10 大常见错误配置,包括过度共享、未启用身份验证、高风险 HTTP 请求、硬编码凭据和孤儿/休眠代理等,并提供了可在 Microsoft Defender Advanced Hunting 中直接使用的检测查询。此事之所以重要,在于这些问题往往不会触发传统告警,却可能让 AI 代理成为数据泄露、权限提升和绕过治理控制的入口,企业需要尽快建立基线排查并收紧共享、认证与连接器使用策略。
引言:为什么这很重要
Copilot Studio agents 正迅速嵌入各类运营工作流——大规模拉取数据、触发操作并与内部系统交互。同样的自动化也会在 agent 被错误共享、以过高权限运行或绕过标准治理控制时,带来新的攻击路径。Microsoft 的 Defender Security Research 团队正在“真实环境”中观察到这些问题,而且往往不会触发明显告警,因此,主动发现与安全态势管理变得至关重要。
最新进展:10 个常见的 Copilot Studio agent 风险(以及如何检测)
Microsoft 发布了一个实用的 agent 错误配置 Top 10 清单,并将每一项映射到 Microsoft Defender Advanced Hunting 的 Community Queries(Security portal → Advanced hunting → Queries → Community queries → AI Agent 文件夹)。关键风险包括:
- 过度宽泛的共享(全组织或大型群组)——扩大攻击面并导致非预期使用。
- 不需要身份验证——形成公开/匿名入口并可能造成数据泄露。
- 高风险 HTTP Request 操作——调用 connector 端点、使用非 HTTPS 或非标准端口,可能绕过 connector 治理与身份控制。
- 基于邮件的数据外传路径——agent 将邮件发送到 AI 可控的变量或外部邮箱,可能导致由 prompt injection 驱动的数据外传。
- 休眠的 agents/actions/connections——陈旧组件会成为隐藏攻击面并保留残余权限。
- 作者(maker)身份验证——削弱职责分离并可能引发权限提升。
- 在 topics/actions 中硬编码凭据——提高凭据泄露与复用风险。
- 配置了 Model Context Protocol (MCP) 工具——可能引入未记录的访问路径与非预期系统交互。
- 缺少指令的 generative orchestration——更高的行为漂移与 prompt 滥用风险。
- 孤儿 agents(无活跃所有者)——治理薄弱,访问在时间推移中失控。
对 IT 管理员与安全团队的影响
- 可见性缺口:这些错误配置在创建时通常并不显得恶意,也可能不会触发传统告警。
- 身份与数据暴露:未认证访问、maker 凭据与广泛共享,可能让 agent 成为低摩擦的“跳板”,直达组织数据。
- 绕过治理:直接 HTTP 操作可规避 Power Platform connector 保护(验证、限流、身份强制)。
- 运营风险:孤儿或休眠 agents 会在所有权与意图不明的情况下,长期保留业务逻辑与访问权限。
行动项 / 下一步
- 立即运行 AI Agent Community Queries 并建立结果基线(优先从:全组织共享、无认证 agents、作者身份验证、硬编码凭据开始)。
- 收紧共享与身份验证:强制最小权限访问,并要求所有生产 agents 必须进行身份验证。
- 审查 HTTP Request 使用:优先采用受治理的 connectors;将非 HTTPS 与非标准端口标记为需立即修复。
- 管控对外邮件场景:限制外部收件人、校验动态输入,并监控类似 prompt-injection 的模式。
- 建立生命周期治理:盘点 agents,移除或重新指定孤儿 agents 的所有者,并下线休眠 connections/actions。
将 agent 配置纳入安全态势的一部分,并持续针对这些模式开展 hunting,可在攻击者将其“武器化”之前降低暴露风险。
获取微软技术最新资讯