Azure

Azure Storage 2026 для AI: масштабирование и Lustre

3 мин. чтения

Кратко

Microsoft представила дорожную карту Azure Storage на 2026 год с фокусом на AI-нагрузки: масштабируемые Blob scaled accounts для датасетов и checkpoint-файлов, а также Azure Managed Lustre с preview-поддержкой до 25 PiB namespace и 512 GBps throughput для GPU-кластеров. Это важно, потому что Azure готовит хранилище не только для frontier-scale обучения и инференса, но и для более предсказуемых, постоянно работающих AI-сервисов, одновременно снижая операционную сложность и улучшая производительность для критичных корпоративных систем.

Нужна помощь с Azure?Поговорить с экспертом

Введение: почему это важно

AI переходит от эпизодических экспериментов к постоянно работающему продакшену — особенно в части инференса и автономных agentic-нагрузок, которые создают устойчивые паттерны доступа с высокой конкурентностью. Дорожная карта Azure Storage на 2026 год сфокусирована на обеспечении сквозных AI-потоков данных (training → tuning → inference), а также на улучшении стоимости, операционной простоты и производительности для традиционных критически важных систем вроде SAP и торговых платформ со сверхнизкой задержкой.

Что нового (и на чем делает акцент Microsoft)

1) Обучение на frontier-масштабе: Blob и высокопропускные пути данных

  • Blob scaled accounts выделяются как способ масштабирования до сотен scale units на регион, нацеленный на нагрузки с миллионами объектов (типично для training/tuning датасетов и управления checkpoint/model файлами).
  • Microsoft отмечает, что инновации, использованные для поддержки операций масштаба OpenAI, становятся широко доступными для корпоративных клиентов.

2) Специализированное хранилище для AI compute: Azure Managed Lustre (AMLFS)

  • Партнерство Azure с NVIDIA DGX on Azure сочетает ускоренные вычисления с Azure Managed Lustre, чтобы обеспечивать GPU-кластеры данными без простоев.
  • AMLFS теперь включает preview-поддержку namespace на 25 PiB и до 512 GBps throughput, позиционируя его как топовый managed Lustre-вариант для крупных исследовательских и индустриальных сценариев инференса (например, automotive, robotics).

3) Интеграции с AI-экосистемой: более быстрый путь от данных к инференсу

  • Планируется более глубокая интеграция с AI-фреймворками, включая Microsoft Foundry, Ray/Anyscale и LangChain.
  • Нативная интеграция Azure Blob в Foundry позиционируется как способ консолидировать корпоративные данные в Foundry IQ для grounding знаний, fine-tuning и низколатентной подачи контекста — при сохранении governance и security внутри tenant.

4) Cloud-native приложения agentic-масштаба: блочное хранилище + оркестрация Kubernetes

  • Microsoft отмечает, что агенты могут генерировать на порядок больше запросов, чем приложения, управляемые человеком, что создает нагрузку на уровни storage/database.
  • Elastic SAN описывается как базовый строительный блок для SaaS-архитектур в стиле multi-tenant с managed пулами блочного хранилища и guardrails.
  • Azure Container Storage (ACStor) по направлению развития смещается к Kubernetes operator model и намерению open source кодовую базу вместе с CSI-драйверами, чтобы упростить разработку stateful-приложений в Kubernetes.

5) Цена/производительность для критически важных нагрузок: SAP, ANF, Ultra Disk

  • Для SAP HANA обновления M-series в Azure нацелены примерно на 780k IOPS и 16 GB/s throughput по дисковой производительности.
  • Azure NetApp Files (ANF) и Azure Premium Files остаются ключевыми вариантами shared storage, с улучшениями TCO, такими как ANF Flexible Service Level и Azure Files Provisioned v2.
  • В планах: Elastic ZRS service level в ANF для zone-redundant HA с синхронной репликацией между AZs.
  • Подчеркивается производительность Ultra Disk (задержка менее 500µs; до 400K IOPS/10 GB/s, и до 800K IOPS/14 GB/s с VM Ebsv6).

Влияние на IT-администраторов и платформенные команды

  • Ожидайте большего фокуса архитектуры на throughput, concurrency и data locality для инференс-ориентированных и agentic-приложений.
  • Kubernetes operators и потенциальный open-source ACStor могут изменить то, как команды стандартизируют stateful workloads на AKS.
  • Выбор хранилища становится более специфичным под нагрузку: Blob для датасетов/контекста, Lustre для GPU-пайплайнов, Elastic SAN/Ultra Disk для высоко-IOPS транзакционных требований, ANF для shared enterprise-нагрузок.

Рекомендованные действия / следующие шаги

  1. Сопоставьте AI workloads по фазам (training vs inference vs agentic) и привяжите к типам хранилищ (Blob + AMLFS + block/shared).
  2. Проверьте preview-лимиты AMLFS (25 PiB/512 GBps) и валидируйте узкие места GPU-пайплайнов, где Lustre может помочь.
  3. Оцените Elastic SAN для multi-tenant SaaS или высококонкурентных микросервисов, которым нужно pooled block storage.
  4. Планируйте ANF Elastic ZRS, если требуется zone-redundant NFS с предсказуемой производительностью для enterprise-приложений.
  5. Для команд AKS отслеживайте обновления ACStor operator + open-source, чтобы снизить потребность в кастомном управлении stateful storage.

Нужна помощь с Azure?

Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.

Поговорить с экспертом

Будьте в курсе технологий Microsoft

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Похожие статьи

Azure

Подкаст Microsoft The Shift об agentic AI и Azure

Microsoft запустила новый подкаст The Shift, посвящённый agentic AI в Azure и корпоративной AI-архитектуре, где в восьми эпизодах обсудят данные, координацию агентов, context engineering, governance и роль платформ вроде Postgres, Microsoft Fabric и OneLake. Это важно, потому что AI-агенты переходят из стадии концепции в практическую задачу для IT-команд, требуя переосмысления архитектуры, безопасности, наблюдаемости и операционных процессов на уровне всей организации.

Azure

Azure и agentic AI для модернизации в регулируемых отраслях

Microsoft заявляет, что Azure в сочетании с agentic AI может ускорить модернизацию облака в регулируемых отраслях, где миграцию обычно тормозят устаревшая инфраструктура, требования соответствия и критически важные системы. Это важно, потому что облачная трансформация все чаще рассматривается не только как способ снизить IT-затраты, но и как основа для операционной устойчивости, соблюдения нормативных требований и масштабного внедрения AI.

Azure

Fireworks AI в Microsoft Foundry для инференса в Azure

Microsoft открыла публичную предварительную версию Fireworks AI в Microsoft Foundry, добавив в Azure высокопроизводительный инференс открытых моделей через единую конечную точку и централизованное управление всем жизненным циклом ИИ. Это важно для компаний, потому что упрощает переход от экспериментов к промышленной эксплуатации, сочетая скорость и низкую задержку с корпоративными возможностями Azure по безопасности, governance и гибкому развертыванию, включая BYOW и serverless-подход.

Azure

Azure Copilot для миграции и модернизации приложений

Microsoft представила новые агентные возможности в Azure Copilot и GitHub Copilot, которые помогают автоматизировать миграцию и модернизацию инфраструктуры, приложений, баз данных и кода — от обнаружения и оценки до планирования и развертывания. Это важно для компаний, потому что снижает сложность и стоимость перехода к современным AI-готовым системам, а также делает модернизацию не разовым проектом, а непрерывным процессом.

Azure

Azure IaaS Resource Center для устойчивой инфраструктуры

Microsoft представила Azure IaaS Resource Center — единый центр с рекомендациями, демо-материалами, архитектурными ресурсами и best practices по compute, storage и networking для проектирования и эксплуатации инфраструктуры Azure. Это важно, потому что компания продвигает Azure IaaS как целостную платформу для повышения устойчивости, производительности и контроля затрат, что особенно актуально для смешанных корпоративных и AI-нагрузок.

Azure

Microsoft Foundry и ROI 327%: платформа AI для Azure

Microsoft продвигает Foundry как единую AI-платформу для Azure, а исследование Forrester TEI оценивает её потенциальный эффект в 327% ROI за три года, окупаемость за шесть месяцев и $49,5 млн совокупной выгоды при инвестициях $11,6 млн. Это важно для IT-администраторов и руководителей AI-направлений, потому что основная ценность Foundry — сокращение времени на инфраструктуру, governance и повторяющиеся инженерные задачи, что повышает продуктивность команд и снижает затраты на инструменты и workflows.