Security

AI в кибератаках: данные Microsoft Threat Intelligence

3 мин. чтения

Кратко

Microsoft Threat Intelligence сообщает, что сегодня злоумышленники в основном используют AI как ускоритель уже известных атак: для генерации фишингового контента, анализа украденных данных, подготовки кода и ускорения разведки. Это важно для организаций, потому что AI не столько создаёт принципиально новые векторы, сколько делает кибератаки быстрее, масштабнее и устойчивее, повышая требования к защите, мониторингу и готовности IT-команд.

Нужна помощь с Security?Поговорить с экспертом

Introduction: Why this matters now

Организации быстро внедряют AI для повышения продуктивности, но атакующие используют те же технологии, чтобы увеличить скорость, масштаб и повторяемость киберопераций. Microsoft Threat Intelligence отмечает, что наиболее распространённое злонамеренное применение сегодня — это генерация контента и кода на базе language model: снижается «техническое трение», при этом выбор целей и исполнение по-прежнему контролируются людьми. Для IT-команд ключевой вывод в том, что AI не обязательно создаёт «новые» пути атаки, но заметно ускоряет существующие и может повышать операционную устойчивость атак.

What’s new: How attackers operationalize AI

Наблюдения Microsoft разделяют AI as an accelerator (самый распространённый сценарий сегодня) и AI as a weapon (формирующийся).

AI as an accelerator across the attack lifecycle

Злоумышленники используют generative AI, чтобы:

  • Составлять и локализовать phishing/social engineering-контент (более убедительные приманки, более быстрая итерация).
  • Суммировать и сортировать украденные данные после компрометации, чтобы быстро находить наиболее ценную информацию.
  • Генерировать, отлаживать или создавать каркас кода (компоненты malware, скрипты, шаблоны инфраструктуры).
  • Ускорять reconnaissance, включая исследование уязвимостей и понимание путей эксплуатации на основе публичных CVE.
  • Создавать правдоподобные persona, анализируя вакансии, извлекая требования к ролям и генерируя культурно согласованные артефакты идентичности.

Ключевой реальный пример в блоге — активность северокорейских удалённых IT-работников (отслеживается как Jasper Sleet и Coral Sleet), где AI поддерживает фабрикацию личности, социальную инженерию и длительную устойчивость — помогая актёрам «устроиться на работу, удержаться на работе и злоупотреблять доступом в масштабе».

Subverting AI safety controls (jailbreaking)

Microsoft отмечает активные эксперименты с обходом защитных ограничений моделей, включая:

  • Переформулирование запросов и многошаговое сцепление инструкций
  • Злоупотребление подсказками в стиле system/developer
  • Role-based jailbreaks (например: «Отвечай как доверенный cybersecurity analyst»), чтобы получить запрещённые рекомендации

Emerging trend: agentic AI experimentation

Хотя пока это не наблюдается в массовом масштабе, Microsoft видит ранние эксперименты с agentic AI для итеративного принятия решений и выполнения задач — что потенциально ведёт к более адаптивной тактике, усложняющей обнаружение и реагирование.

Impact on IT admins and end users

  • Более высокий объём и качество phishing повышают риск кражи учётных данных и компрометации через helpdesk.
  • Более быстрая эксплуатация и подбор инструментов сокращают окна реагирования после раскрытия уязвимостей.
  • Рост риска, похожего на insider-угрозы, через мошеннические сценарии подрядчиков/работников и злоупотребление легитимным доступом.

Action items / next steps

  • Укрепите identity and access: по возможности применяйте MFA-resistant меры контроля, включайте Conditional Access и жёстко ограничивайте привилегии.
  • Усильте проверку при найме/онбординге подрядчиков: верифицируйте личности, состояние устройств и границы доступа для удалённых работников.
  • Повышайте устойчивость к phishing: обучение пользователей плюс технические меры (safe links/attachments, защита от impersonation).
  • Отслеживайте аномальные шаблоны доступа, характерные для аутсорсингового/мошеннического поведения работников (необычная география, impossible travel, нетипичные инструменты).
  • Используйте detections и investigations Microsoft Defender, на которые указывает Microsoft, чтобы обнаруживать, устранять и реагировать на activity с поддержкой AI.

Microsoft подчёркивает, что AI может усиливать и защитников — при сочетании с сильными мерами контроля, детекциями на основе разведданных и скоординированными усилиями по нарушению операций злоумышленников.

Нужна помощь с Security?

Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.

Поговорить с экспертом

Будьте в курсе технологий Microsoft

Microsoft Threat IntelligenceDefenderphishinggenerative AIidentity security

Похожие статьи

Security

Компрометация цепочки поставок Trivy: рекомендации Defender

Microsoft опубликовала рекомендации по обнаружению, расследованию и смягчению последствий компрометации цепочки поставок Trivy в марте 2026 года, затронувшей бинарный файл Trivy и связанные GitHub Actions. Инцидент важен тем, что доверенный инструмент безопасности CI/CD был использован для кражи учетных данных из пайплайнов сборки, облачных сред и систем разработчиков, при этом внешне работая как обычно.

Security

Управление AI Agent: выравнивание намерений для безопасности

Microsoft описывает модель управления для AI agents, которая выравнивает намерения пользователя, разработчика, роли и организации. Эта структура помогает компаниям сохранять полезность, безопасность и соответствие требованиям, задавая поведенческие границы и понятный порядок приоритета при возникновении конфликтов.

Security

Predictive shielding в Microsoft Defender против GPO-шифровальщика

Microsoft описала реальный случай ransomware, в котором predictive shielding в Defender обнаружил вредоносное злоупотребление Group Policy Objects (GPO) до начала шифрования. За счёт усиления защиты распространения GPO и блокировки скомпрометированных учётных записей Defender остановил около 97% попыток шифрования и не позволил зашифровать ни одно устройство через путь доставки GPO.

Security

Защита agentic AI: новые решения Microsoft на RSAC

На RSAC 2026 Microsoft представила комплексный набор решений для защиты agentic AI, включая Agent 365, который станет общедоступным 1 мая и позволит централизованно управлять, защищать и контролировать AI-агентов в связке с Defender, Entra и Purview. Это важно, потому что по мере массового внедрения AI-агентов компаниям нужны новые инструменты для выявления теневого использования AI, снижения риска утечек данных и управления доступом в масштабе всей организации.

Security

Microsoft open source CTI-REALM для AI detection engineering

Microsoft открыла CTI-REALM — бенчмарк, который проверяет, могут ли AI-агенты реально выполнять задачи detection engineering: анализировать CTI-отчёты, сопоставлять техники MITRE ATT&CK и создавать/валидировать правила обнаружения. Это важно для SOC и security-команд, потому что инструмент смещает оценку ИИ от теоретических ответов к практическим операционным результатам в Linux, AKS и Azure-средах.

Security

Zero Trust for AI от Microsoft: воркшоп и архитектура

Microsoft представила подход Zero Trust for AI и обновила Zero Trust Workshop, добавив отдельный AI-столп для оценки и проектирования защиты моделей, агентов, данных и автоматизированных решений. Это важно для компаний, внедряющих AI: новые рекомендации помогают системно учитывать риски вроде prompt injection и data poisoning, а также согласовать меры безопасности между IT, ИБ и бизнесом.