Security

AI observability для GenAI: база безопасности Microsoft

3 мин. чтения

Кратко

Microsoft заявила, что для GenAI- и agentic AI-систем традиционного мониторинга уже недостаточно, и продвигает AI observability как обязательный элемент Secure Development Lifecycle. Это важно, потому что такие системы могут быть скомпрометированы через вредоносный контент, контекст или действия агентов без видимых сбоев в доступности и производительности, поэтому компаниям нужен более глубокий контроль над происхождением данных, сборкой контекста и поведением AI.

Аудио-сводка

0:00--:--
Нужна помощь с Security?Поговорить с экспертом

Введение

По мере того как генеративный AI и agentic AI переходят от пилотных проектов к промышленной эксплуатации, они становятся частью ключевых бизнес-процессов, нередко получая доступ к конфиденциальным данным, внешним инструментам и автоматизированным действиям. В последних рекомендациях Microsoft по безопасности ясно сказано: традиционного мониторинга доступности и производительности для таких систем уже недостаточно.

Что нового

Microsoft расширяет подход к безопасной разработке AI, позиционируя AI observability как важнейшее требование в рамках своего Secure Development Lifecycle (SDL).

Почему традиционный мониторинг не справляется

Традиционный observability фокусируется на детерминированных сигналах приложений, таких как:

  • Доступность
  • Задержка
  • Пропускная способность
  • Частота ошибок

Для AI-систем эти сигналы могут оставаться в норме даже в случае компрометации системы. Microsoft приводит сценарии, в которых AI-агент потребляет отравленный или вредоносный внешний контент, передает его между агентами и инициирует несанкционированные действия, не вызывая при этом типичных сбоев.

Что должен включать AI observability

По словам Microsoft, AI observability должен выйти за рамки стандартных логов, метрик и трассировок и охватывать сигналы, характерные именно для AI, включая:

  • Сборка контекста: какие инструкции, извлеченный контент, история диалога и результаты работы инструментов использовались в рамках конкретного выполнения
  • Происхождение источников и классификация доверия: откуда поступил контент и следует ли ему доверять
  • Логирование prompts и ответов: критически важно для выявления prompt injection, многошаговых jailbreak-атак и изменений в поведении модели
  • Корреляция на уровне жизненного цикла агента: стабильный идентификатор для многошаговых диалогов и взаимодействий между агентами
  • AI-специфичные метрики: использование токенов, объем извлечения данных, количество ходов агента и изменения поведения после обновлений модели
  • Сквозные трассировки: видимость всей цепочки — от исходного prompt до использования инструментов и финального результата

Два дополнительных компонента: evaluation и governance

Microsoft также расширяет observability за счет:

  • Evaluation: измерения качества результата, grounding, соответствия инструкциям и корректности использования инструментов
  • Governance: применения телеметрии и средств контроля для поддержки исполнения политик, аудируемости и подотчетности

Почему это важно для IT- и security-команд

Для администраторов, security-команд и владельцев AI-платформ эти рекомендации подтверждают, что AI-системам нужны меры безопасности, адаптированные под вероятностное и многоэтапное поведение. Без более богатой телеметрии командам может быть сложно выявлять prompt injection, отслеживать пути утечки данных, подтверждать соответствие политикам или объяснять, почему агент повел себя неожиданным образом.

Это особенно актуально для организаций, которые внедряют copilots, кастомные AI-агенты, retrieval-augmented generation приложения или автономные workflow, подключенные к Microsoft 365, бизнес-данным или внешним API.

Рекомендуемые следующие шаги

Организациям следует пересмотреть текущие практики мониторинга AI и оценить, фиксируют ли они достаточно деталей для расследования AI-специфичных рисков.

Ключевые действия включают:

  • Провести инвентаризацию промышленных AI-приложений, copilots и агентов
  • Включить логирование prompts, ответов, вызовов инструментов и извлеченного контента там, где это уместно
  • Сохранять трассировку на уровне диалога в многошаговых и multi-agent workflow
  • Добавить процессы evaluation для grounding, качества и соответствия политикам
  • Согласовать AI observability с процессами governance, аудита и реагирования на инциденты

Посыл Microsoft прост: если AI становится частью производственной инфраструктуры, observability должен стать частью базового уровня безопасности.

Нужна помощь с Security?

Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.

Поговорить с экспертом

Будьте в курсе технологий Microsoft

SecurityAI observabilityGenerative AIagentic AIgovernance

Похожие статьи

Security

Компрометация цепочки поставок Trivy: рекомендации Defender

Microsoft опубликовала рекомендации по обнаружению, расследованию и смягчению последствий компрометации цепочки поставок Trivy в марте 2026 года, затронувшей бинарный файл Trivy и связанные GitHub Actions. Инцидент важен тем, что доверенный инструмент безопасности CI/CD был использован для кражи учетных данных из пайплайнов сборки, облачных сред и систем разработчиков, при этом внешне работая как обычно.

Security

Управление AI Agent: выравнивание намерений для безопасности

Microsoft описывает модель управления для AI agents, которая выравнивает намерения пользователя, разработчика, роли и организации. Эта структура помогает компаниям сохранять полезность, безопасность и соответствие требованиям, задавая поведенческие границы и понятный порядок приоритета при возникновении конфликтов.

Security

Predictive shielding в Microsoft Defender против GPO-шифровальщика

Microsoft описала реальный случай ransomware, в котором predictive shielding в Defender обнаружил вредоносное злоупотребление Group Policy Objects (GPO) до начала шифрования. За счёт усиления защиты распространения GPO и блокировки скомпрометированных учётных записей Defender остановил около 97% попыток шифрования и не позволил зашифровать ни одно устройство через путь доставки GPO.

Security

Защита agentic AI: новые решения Microsoft на RSAC

На RSAC 2026 Microsoft представила комплексный набор решений для защиты agentic AI, включая Agent 365, который станет общедоступным 1 мая и позволит централизованно управлять, защищать и контролировать AI-агентов в связке с Defender, Entra и Purview. Это важно, потому что по мере массового внедрения AI-агентов компаниям нужны новые инструменты для выявления теневого использования AI, снижения риска утечек данных и управления доступом в масштабе всей организации.

Security

Microsoft open source CTI-REALM для AI detection engineering

Microsoft открыла CTI-REALM — бенчмарк, который проверяет, могут ли AI-агенты реально выполнять задачи detection engineering: анализировать CTI-отчёты, сопоставлять техники MITRE ATT&CK и создавать/валидировать правила обнаружения. Это важно для SOC и security-команд, потому что инструмент смещает оценку ИИ от теоретических ответов к практическим операционным результатам в Linux, AKS и Azure-средах.

Security

Zero Trust for AI от Microsoft: воркшоп и архитектура

Microsoft представила подход Zero Trust for AI и обновила Zero Trust Workshop, добавив отдельный AI-столп для оценки и проектирования защиты моделей, агентов, данных и автоматизированных решений. Это важно для компаний, внедряющих AI: новые рекомендации помогают системно учитывать риски вроде prompt injection и data poisoning, а также согласовать меры безопасности между IT, ИБ и бизнесом.