Security

Microsoft open source CTI-REALM для AI detection engineering

3 мин. чтения

Кратко

Microsoft открыла CTI-REALM — бенчмарк, который проверяет, могут ли AI-агенты реально выполнять задачи detection engineering: анализировать CTI-отчёты, сопоставлять техники MITRE ATT&CK и создавать/валидировать правила обнаружения. Это важно для SOC и security-команд, потому что инструмент смещает оценку ИИ от теоретических ответов к практическим операционным результатам в Linux, AKS и Azure-средах.

Нужна помощь с Security?Поговорить с экспертом

Введение

Microsoft объявила о CTI-REALM — новом open-source бенчмарке, нацеленном на растущую задачу в security operations: определить, способны ли AI-агенты выполнять реальную работу по detection engineering, а не просто отвечать на вопросы по кибербезопасности. Для security-команд, оценивающих AI для SOC и сценариев обнаружения, это важно, поскольку бенчмарк сосредоточен на операционных результатах — создании и валидации детектов на основе threat intelligence.

Что нового в CTI-REALM

CTI-REALM (Cyber Threat Intelligence Real World Evaluation and LLM Benchmarking) создан для проверки полного workflow, которому следуют security-аналитики при создании детектов.

Ключевые возможности

  • Оценивает AI-агентов по сквозной генерации detection rules, а не по изолированным тестам знаний CTI.
  • Использует 37 отобранных CTI-отчётов из публичных источников, включая Microsoft Security, Datadog Security Labs, Palo Alto Networks и Splunk.
  • Измеряет производительность в средах Linux endpoints, Azure Kubernetes Service (AKS) и Azure cloud infrastructure.
  • Оценивает не только итоговые результаты, но и промежуточные этапы, такие как:
    • понимание CTI-отчёта
    • сопоставление с техниками MITRE ATT&CK
    • определение источников данных
    • доработка KQL-запросов
    • генерация Sigma-правил
  • Предоставляет агентам реалистичный инструментарий, включая CTI-репозитории, schema explorers, Kusto query engines, справочные материалы MITRE ATT&CK и базы данных Sigma.

Первые выводы из тестирования Microsoft

Microsoft оценила 16 конфигураций передовых моделей на CTI-REALM-50 — наборе бенчмарка из 50 задач.

Среди заметных результатов:

  • Модели Anthropic Claude возглавили рейтинг, во многом благодаря более сильному использованию инструментов и итеративной доработке запросов.
  • В семействе GPT-5 medium reasoning превзошёл high reasoning, что указывает на то, что больший объём рассуждений может снижать эффективность в agentic-сценариях обнаружения.
  • Обнаружение в Azure cloud оказалось самым сложным, показав более низкие результаты, чем Linux и AKS, из-за сложности корреляции нескольких источников telemetry.
  • Удаление CTI-specific tools снижало производительность у всех протестированных моделей.
  • Добавление human-authored workflow guidance значительно улучшало результаты небольших моделей.

Почему это важно для IT- и security-администраторов

Для руководителей SOC, detection engineers и security architects CTI-REALM предлагает более практичный способ оценивать AI перед его использованием в production workflows. Вместо того чтобы полагаться на общие оценки бенчмарков, команды могут определить, где именно модель испытывает трудности — например, в понимании угроз, сопоставлении telemetry или специфичности правил.

Это может помочь организациям:

  • Подтвердить пригодность AI-модели для задач detection engineering
  • Определить, где по-прежнему необходимы human review и guardrails
  • Объективно сравнить модели перед operational deployment
  • Повысить уверенность в AI-assisted разработке детектов

Следующие шаги

Security-командам, заинтересованным в AI-assisted detection engineering, следует:

  • Ознакомиться с исследовательской статьёй CTI-REALM и методологией бенчмарка
  • Протестировать выбранные модели на бенчмарке до внедрения в production
  • Использовать результаты для определения процессов review и guardrails
  • Следить за репозиторием Inspect AI на предмет доступности CTI-REALM и вкладов сообщества

Microsoft позиционирует CTI-REALM как ресурс для сообщества, который поможет отрасли последовательно сравнивать модели и безопаснее внедрять AI в security operations.

Нужна помощь с Security?

Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.

Поговорить с экспертом

Будьте в курсе технологий Microsoft

SecurityAI agentsthreat intelligencedetection engineeringKQL

Похожие статьи

Security

Компрометация цепочки поставок Trivy: рекомендации Defender

Microsoft опубликовала рекомендации по обнаружению, расследованию и смягчению последствий компрометации цепочки поставок Trivy в марте 2026 года, затронувшей бинарный файл Trivy и связанные GitHub Actions. Инцидент важен тем, что доверенный инструмент безопасности CI/CD был использован для кражи учетных данных из пайплайнов сборки, облачных сред и систем разработчиков, при этом внешне работая как обычно.

Security

Управление AI Agent: выравнивание намерений для безопасности

Microsoft описывает модель управления для AI agents, которая выравнивает намерения пользователя, разработчика, роли и организации. Эта структура помогает компаниям сохранять полезность, безопасность и соответствие требованиям, задавая поведенческие границы и понятный порядок приоритета при возникновении конфликтов.

Security

Predictive shielding в Microsoft Defender против GPO-шифровальщика

Microsoft описала реальный случай ransomware, в котором predictive shielding в Defender обнаружил вредоносное злоупотребление Group Policy Objects (GPO) до начала шифрования. За счёт усиления защиты распространения GPO и блокировки скомпрометированных учётных записей Defender остановил около 97% попыток шифрования и не позволил зашифровать ни одно устройство через путь доставки GPO.

Security

Защита agentic AI: новые решения Microsoft на RSAC

На RSAC 2026 Microsoft представила комплексный набор решений для защиты agentic AI, включая Agent 365, который станет общедоступным 1 мая и позволит централизованно управлять, защищать и контролировать AI-агентов в связке с Defender, Entra и Purview. Это важно, потому что по мере массового внедрения AI-агентов компаниям нужны новые инструменты для выявления теневого использования AI, снижения риска утечек данных и управления доступом в масштабе всей организации.

Security

Zero Trust for AI от Microsoft: воркшоп и архитектура

Microsoft представила подход Zero Trust for AI и обновила Zero Trust Workshop, добавив отдельный AI-столп для оценки и проектирования защиты моделей, агентов, данных и автоматизированных решений. Это важно для компаний, внедряющих AI: новые рекомендации помогают системно учитывать риски вроде prompt injection и data poisoning, а также согласовать меры безопасности между IT, ИБ и бизнесом.

Security

Фишинг в налоговый сезон: Microsoft о росте атак

Microsoft предупреждает о росте фишинговых и вредоносных атак в налоговый сезон: злоумышленники маскируются под бухгалтеров и налоговые уведомления, используют QR-коды, облачные файлы, многоэтапные редиректы и kits вроде Energy365 и SneakyLog для кражи учетных данных. Это важно для компаний и ИБ-команд, потому что такие кампании становятся более персонализированными и лучше обходят традиционные средства защиты, повышая риск компрометации Microsoft 365 и запуска вредоносного ПО.