Security

Zero Trust for AI от Microsoft: воркшоп и архитектура

3 мин. чтения

Кратко

Microsoft представила подход Zero Trust for AI и обновила Zero Trust Workshop, добавив отдельный AI-столп для оценки и проектирования защиты моделей, агентов, данных и автоматизированных решений. Это важно для компаний, внедряющих AI: новые рекомендации помогают системно учитывать риски вроде prompt injection и data poisoning, а также согласовать меры безопасности между IT, ИБ и бизнесом.

Нужна помощь с Security?Поговорить с экспертом

Введение

По мере того как предприятия ускоряют внедрение AI, перед командами безопасности встает задача защищать новые границы доверия, связанные с моделями, агентами, источниками данных и автоматизированными решениями. Новые рекомендации Microsoft Zero Trust for AI (ZT4AI) важны тем, что дают руководителям IT и безопасности более структурированный способ оценки, проектирования и внедрения защиты AI с использованием знакомых принципов Zero Trust.

Что нового

Принципы Zero Trust, примененные к AI

Microsoft распространяет стандартный подход Zero Trust на AI-среды с тремя базовыми принципами:

  • Явная проверка: Непрерывно подтверждать личность и поведение пользователей, рабочих нагрузок и AI-агентов.
  • Принцип наименьших привилегий: Ограничивать доступ к prompts, моделям, plugins и источникам данных только необходимым минимумом.
  • Предполагать компрометацию: Проектировать системы с учетом устойчивости к prompt injection, data poisoning и lateral movement.

Новый AI-столп в Zero Trust Workshop

Обновленный Zero Trust Workshop теперь включает отдельный AI-столп. По словам Microsoft, теперь воркшоп охватывает:

  • 700 security controls
  • 116 logical groups
  • 33 functional swim lanes

Воркшоп предназначен для того, чтобы помочь командам согласовать действия между безопасностью, IT и бизнес-заинтересованными сторонами, оценить специфические для AI риски и сопоставить меры контроля с продуктами и процессами безопасности Microsoft.

Расширенный Zero Trust Assessment

Microsoft также обновила инструмент Zero Trust Assessment, добавив новые столпы Data и Network наряду с уже существующим покрытием Identity и Devices. Это особенно актуально для развертываний AI, где:

  • Конфиденциальные данные должны классифицироваться, маркироваться и управляться
  • Предотвращение потери данных становится более критичным
  • Сетевые средства контроля могут помогать анализировать поведение агентов и снижать несанкционированное раскрытие данных

Microsoft также подтвердила, что отдельный столп оценки для AI находится в разработке и ожидается летом 2026 года.

Новая эталонная архитектура и шаблоны

Новая эталонная архитектура Zero Trust for AI предоставляет общую модель для применения управляемого политиками контроля доступа, непрерывной проверки, мониторинга и управления в AI-системах. Microsoft также опубликовала практические шаблоны и рекомендации для таких направлений, как:

  • Моделирование угроз для AI
  • AI observability для журналирования, трассируемости и мониторинга

Влияние на IT-администраторов и команды безопасности

Для администраторов этот анонс дает более ясный путь от стратегии к внедрению. Команды, отвечающие за Microsoft Security, управление данными, сети и идентификацию, могут использовать эти обновления, чтобы лучше оценивать риски AI, особенно в областях чрезмерных привилегий агентов, prompt injection и непреднамеренного раскрытия данных.

Организациям, внедряющим Copilots, пользовательские AI-приложения или автономных агентов, следует воспринимать это как сигнал о том, что безопасность AI требует такого же структурированного управления, которое уже используется для identity, endpoint и cloud security.

Следующие шаги

  • Изучите обновленный Zero Trust Workshop и определите, где в вашей среде применимы меры контроля, специфичные для AI.
  • Используйте улучшенный Zero Trust Assessment для базовой оценки мер контроля Identity, Devices, Data и Network.
  • Сопоставьте ваши AI-развертывания с новой эталонной архитектурой.
  • Определите приоритеты управления для идентичности агентов, доступа к данным, журналирования и защиты от prompt injection.
  • Подготовьтесь к появлению AI-столпа в Zero Trust Assessment позже в 2026 году.

Посыл Microsoft ясен: безопасность AI не следует рассматривать как отдельную дисциплину, а как естественное расширение Zero Trust.

Нужна помощь с Security?

Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.

Поговорить с экспертом

Будьте в курсе технологий Microsoft

Zero TrustAI securityMicrosoft Securitydata governancenetwork security

Похожие статьи

Security

Компрометация цепочки поставок Trivy: рекомендации Defender

Microsoft опубликовала рекомендации по обнаружению, расследованию и смягчению последствий компрометации цепочки поставок Trivy в марте 2026 года, затронувшей бинарный файл Trivy и связанные GitHub Actions. Инцидент важен тем, что доверенный инструмент безопасности CI/CD был использован для кражи учетных данных из пайплайнов сборки, облачных сред и систем разработчиков, при этом внешне работая как обычно.

Security

Управление AI Agent: выравнивание намерений для безопасности

Microsoft описывает модель управления для AI agents, которая выравнивает намерения пользователя, разработчика, роли и организации. Эта структура помогает компаниям сохранять полезность, безопасность и соответствие требованиям, задавая поведенческие границы и понятный порядок приоритета при возникновении конфликтов.

Security

Predictive shielding в Microsoft Defender против GPO-шифровальщика

Microsoft описала реальный случай ransomware, в котором predictive shielding в Defender обнаружил вредоносное злоупотребление Group Policy Objects (GPO) до начала шифрования. За счёт усиления защиты распространения GPO и блокировки скомпрометированных учётных записей Defender остановил около 97% попыток шифрования и не позволил зашифровать ни одно устройство через путь доставки GPO.

Security

Защита agentic AI: новые решения Microsoft на RSAC

На RSAC 2026 Microsoft представила комплексный набор решений для защиты agentic AI, включая Agent 365, который станет общедоступным 1 мая и позволит централизованно управлять, защищать и контролировать AI-агентов в связке с Defender, Entra и Purview. Это важно, потому что по мере массового внедрения AI-агентов компаниям нужны новые инструменты для выявления теневого использования AI, снижения риска утечек данных и управления доступом в масштабе всей организации.

Security

Microsoft open source CTI-REALM для AI detection engineering

Microsoft открыла CTI-REALM — бенчмарк, который проверяет, могут ли AI-агенты реально выполнять задачи detection engineering: анализировать CTI-отчёты, сопоставлять техники MITRE ATT&CK и создавать/валидировать правила обнаружения. Это важно для SOC и security-команд, потому что инструмент смещает оценку ИИ от теоретических ответов к практическим операционным результатам в Linux, AKS и Azure-средах.

Security

Фишинг в налоговый сезон: Microsoft о росте атак

Microsoft предупреждает о росте фишинговых и вредоносных атак в налоговый сезон: злоумышленники маскируются под бухгалтеров и налоговые уведомления, используют QR-коды, облачные файлы, многоэтапные редиректы и kits вроде Energy365 и SneakyLog для кражи учетных данных. Это важно для компаний и ИБ-команд, потому что такие кампании становятся более персонализированными и лучше обходят традиционные средства защиты, повышая риск компрометации Microsoft 365 и запуска вредоносного ПО.