Security

Ошибки конфигурации Copilot Studio: 10 рисков

3 мин. чтения

Кратко

Microsoft предупредила о 10 типовых ошибках конфигурации в Copilot Studio, которые могут превратить корпоративных ИИ-агентов в серьёзный риск безопасности — от чрезмерно широких прав доступа до отсутствия аутентификации и небезопасных HTTP-запросов. Важно то, что для этих сценариев уже доступны готовые запросы в Microsoft Defender Advanced Hunting, позволяющие командам безопасности заранее выявлять опасные настройки и снижать вероятность утечек данных и обхода защитных политик.

Аудио-сводка

0:00--:--
Нужна помощь с Security?Поговорить с экспертом

Introduction: why this matters

Агенты Copilot Studio быстро встраиваются в операционные рабочие процессы — запрашивают данные, запускают действия и взаимодействуют с системами в масштабе. Команда Defender Security Research Team предупреждает, что небольшие, сделанные из лучших побуждений решения в настройках (слишком широкое предоставление доступа, слабая аутентификация, рискованные действия) могут незаметно превратиться в точки высокого риска. Хорошая новость: Microsoft Defender может помочь обнаружить такие состояния на раннем этапе с помощью Advanced Hunting Community Queries.

What’s new: 10 misconfigurations to hunt for

Microsoft опубликовала «одностраничный обзор» наиболее распространённых рисков агентов Copilot Studio, наблюдаемых в реальных средах, вместе с соответствующими обнаружениями в Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → папка AI Agent).

Среди ключевых рисков отмечены:

  • Слишком широкое предоставление доступа (доступ для всей организации или больших групп): увеличивает поверхность атаки и вероятность непреднамеренного использования.
  • Отсутствие требования аутентификации: превращает агента в публичную/анонимную точку входа, которая может раскрывать внутренние данные или логику.
  • Рискованные действия HTTP Request: использование не-HTTPS, нестандартных портов или прямых вызовов к endpoint’ам, которые должны управляться через connectors — в обход политик и защитных механизмов идентификации.
  • Каналы эксфильтрации данных через email: агенты, которые могут отправлять письма на вводимые атакующим адреса или во внешние почтовые ящики (особенно опасно при prompt injection).
  • Неактивные агенты, действия или подключения: «забытые» опубликованные агенты и устаревшие подключения создают скрытый, привилегированный доступ.
  • Аутентификация автора (maker) в production: нарушает разделение обязанностей и фактически может выполнять действия с повышенными правами maker.
  • Жёстко прописанные учётные данные в topics/actions: прямой риск утечки credentials.
  • Настроенные инструменты Model Context Protocol (MCP): могут добавлять недокументированные пути доступа и непреднамеренные взаимодействия с системами.
  • Generative orchestration без инструкций: повышает вероятность «дрейфа» поведения или небезопасных действий, спровоцированных prompt’ами.
  • «Осиротевшие» агенты (без активного владельца): слабое управление, отсутствие ответственного сопровождения и повышенный риск устаревшей логики.

Impact on IT admins and security teams

Для администраторов, управляющих Power Platform и безопасностью Microsoft 365, ключевой вывод в том, что состояние безопасности агентов теперь является частью управления идентификацией и данными. Ошибки конфигурации могут создавать новые пути доступа, которые традиционные инвентаризации приложений, допущения conditional access или политики connectors могут не полностью охватывать — особенно когда агенты быстро создаются makers.

Action items / next steps

  1. Запустите Community Queries в Advanced Hunting Defender (папка AI Agent) и сформируйте базовую картину (baseline) по находкам во всех средах.
  2. Приоритизируйте устранение для: агентов без аутентификации, общего доступа на всю организацию, агентов с maker-auth и любых возможностей отправки email наружу.
  3. Пересмотрите использование HTTP Request и по возможности замените на управляемые connectors; обеспечьте HTTPS и стандартные порты.
  4. Очистите неактивные/осиротевшие активы: выведите из эксплуатации неиспользуемые агенты/действия и выполните ротацию/удаление устаревших подключений.
  5. Внедрите операционные guardrails: требуйте назначенного владельца, документированного назначения, подключений по принципу least privilege и обязательных инструкций для generative orchestration.

Нужна помощь с Security?

Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.

Поговорить с экспертом

Будьте в курсе технологий Microsoft

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Похожие статьи

Security

Компрометация цепочки поставок Trivy: рекомендации Defender

Microsoft опубликовала рекомендации по обнаружению, расследованию и смягчению последствий компрометации цепочки поставок Trivy в марте 2026 года, затронувшей бинарный файл Trivy и связанные GitHub Actions. Инцидент важен тем, что доверенный инструмент безопасности CI/CD был использован для кражи учетных данных из пайплайнов сборки, облачных сред и систем разработчиков, при этом внешне работая как обычно.

Security

Управление AI Agent: выравнивание намерений для безопасности

Microsoft описывает модель управления для AI agents, которая выравнивает намерения пользователя, разработчика, роли и организации. Эта структура помогает компаниям сохранять полезность, безопасность и соответствие требованиям, задавая поведенческие границы и понятный порядок приоритета при возникновении конфликтов.

Security

Predictive shielding в Microsoft Defender против GPO-шифровальщика

Microsoft описала реальный случай ransomware, в котором predictive shielding в Defender обнаружил вредоносное злоупотребление Group Policy Objects (GPO) до начала шифрования. За счёт усиления защиты распространения GPO и блокировки скомпрометированных учётных записей Defender остановил около 97% попыток шифрования и не позволил зашифровать ни одно устройство через путь доставки GPO.

Security

Защита agentic AI: новые решения Microsoft на RSAC

На RSAC 2026 Microsoft представила комплексный набор решений для защиты agentic AI, включая Agent 365, который станет общедоступным 1 мая и позволит централизованно управлять, защищать и контролировать AI-агентов в связке с Defender, Entra и Purview. Это важно, потому что по мере массового внедрения AI-агентов компаниям нужны новые инструменты для выявления теневого использования AI, снижения риска утечек данных и управления доступом в масштабе всей организации.

Security

Microsoft open source CTI-REALM для AI detection engineering

Microsoft открыла CTI-REALM — бенчмарк, который проверяет, могут ли AI-агенты реально выполнять задачи detection engineering: анализировать CTI-отчёты, сопоставлять техники MITRE ATT&CK и создавать/валидировать правила обнаружения. Это важно для SOC и security-команд, потому что инструмент смещает оценку ИИ от теоретических ответов к практическим операционным результатам в Linux, AKS и Azure-средах.

Security

Zero Trust for AI от Microsoft: воркшоп и архитектура

Microsoft представила подход Zero Trust for AI и обновила Zero Trust Workshop, добавив отдельный AI-столп для оценки и проектирования защиты моделей, агентов, данных и автоматизированных решений. Это важно для компаний, внедряющих AI: новые рекомендации помогают системно учитывать риски вроде prompt injection и data poisoning, а также согласовать меры безопасности между IT, ИБ и бизнесом.