Zero Trust for AI от Microsoft: воркшоп и архитектура
Кратко
Microsoft представила подход Zero Trust for AI и обновила Zero Trust Workshop, добавив отдельный AI-столп для оценки и проектирования защиты моделей, агентов, данных и автоматизированных решений. Это важно для компаний, внедряющих AI: новые рекомендации помогают системно учитывать риски вроде prompt injection и data poisoning, а также согласовать меры безопасности между IT, ИБ и бизнесом.
Введение
По мере того как предприятия ускоряют внедрение AI, перед командами безопасности встает задача защищать новые границы доверия, связанные с моделями, агентами, источниками данных и автоматизированными решениями. Новые рекомендации Microsoft Zero Trust for AI (ZT4AI) важны тем, что дают руководителям IT и безопасности более структурированный способ оценки, проектирования и внедрения защиты AI с использованием знакомых принципов Zero Trust.
Что нового
Принципы Zero Trust, примененные к AI
Microsoft распространяет стандартный подход Zero Trust на AI-среды с тремя базовыми принципами:
- Явная проверка: Непрерывно подтверждать личность и поведение пользователей, рабочих нагрузок и AI-агентов.
- Принцип наименьших привилегий: Ограничивать доступ к prompts, моделям, plugins и источникам данных только необходимым минимумом.
- Предполагать компрометацию: Проектировать системы с учетом устойчивости к prompt injection, data poisoning и lateral movement.
Новый AI-столп в Zero Trust Workshop
Обновленный Zero Trust Workshop теперь включает отдельный AI-столп. По словам Microsoft, теперь воркшоп охватывает:
- 700 security controls
- 116 logical groups
- 33 functional swim lanes
Воркшоп предназначен для того, чтобы помочь командам согласовать действия между безопасностью, IT и бизнес-заинтересованными сторонами, оценить специфические для AI риски и сопоставить меры контроля с продуктами и процессами безопасности Microsoft.
Расширенный Zero Trust Assessment
Microsoft также обновила инструмент Zero Trust Assessment, добавив новые столпы Data и Network наряду с уже существующим покрытием Identity и Devices. Это особенно актуально для развертываний AI, где:
- Конфиденциальные данные должны классифицироваться, маркироваться и управляться
- Предотвращение потери данных становится более критичным
- Сетевые средства контроля могут помогать анализировать поведение агентов и снижать несанкционированное раскрытие данных
Microsoft также подтвердила, что отдельный столп оценки для AI находится в разработке и ожидается летом 2026 года.
Новая эталонная архитектура и шаблоны
Новая эталонная архитектура Zero Trust for AI предоставляет общую модель для применения управляемого политиками контроля доступа, непрерывной проверки, мониторинга и управления в AI-системах. Microsoft также опубликовала практические шаблоны и рекомендации для таких направлений, как:
- Моделирование угроз для AI
- AI observability для журналирования, трассируемости и мониторинга
Влияние на IT-администраторов и команды безопасности
Для администраторов этот анонс дает более ясный путь от стратегии к внедрению. Команды, отвечающие за Microsoft Security, управление данными, сети и идентификацию, могут использовать эти обновления, чтобы лучше оценивать риски AI, особенно в областях чрезмерных привилегий агентов, prompt injection и непреднамеренного раскрытия данных.
Организациям, внедряющим Copilots, пользовательские AI-приложения или автономных агентов, следует воспринимать это как сигнал о том, что безопасность AI требует такого же структурированного управления, которое уже используется для identity, endpoint и cloud security.
Следующие шаги
- Изучите обновленный Zero Trust Workshop и определите, где в вашей среде применимы меры контроля, специфичные для AI.
- Используйте улучшенный Zero Trust Assessment для базовой оценки мер контроля Identity, Devices, Data и Network.
- Сопоставьте ваши AI-развертывания с новой эталонной архитектурой.
- Определите приоритеты управления для идентичности агентов, доступа к данным, журналирования и защиты от prompt injection.
- Подготовьтесь к появлению AI-столпа в Zero Trust Assessment позже в 2026 году.
Посыл Microsoft ясен: безопасность AI не следует рассматривать как отдельную дисциплину, а как естественное расширение Zero Trust.
Нужна помощь с Security?
Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.
Поговорить с экспертомБудьте в курсе технологий Microsoft