Azure Storage 2026 для AI: масштабирование и Lustre
Кратко
Microsoft представила дорожную карту Azure Storage на 2026 год с фокусом на AI-нагрузки: масштабируемые Blob scaled accounts для датасетов и checkpoint-файлов, а также Azure Managed Lustre с preview-поддержкой до 25 PiB namespace и 512 GBps throughput для GPU-кластеров. Это важно, потому что Azure готовит хранилище не только для frontier-scale обучения и инференса, но и для более предсказуемых, постоянно работающих AI-сервисов, одновременно снижая операционную сложность и улучшая производительность для критичных корпоративных систем.
Введение: почему это важно
AI переходит от эпизодических экспериментов к постоянно работающему продакшену — особенно в части инференса и автономных agentic-нагрузок, которые создают устойчивые паттерны доступа с высокой конкурентностью. Дорожная карта Azure Storage на 2026 год сфокусирована на обеспечении сквозных AI-потоков данных (training → tuning → inference), а также на улучшении стоимости, операционной простоты и производительности для традиционных критически важных систем вроде SAP и торговых платформ со сверхнизкой задержкой.
Что нового (и на чем делает акцент Microsoft)
1) Обучение на frontier-масштабе: Blob и высокопропускные пути данных
- Blob scaled accounts выделяются как способ масштабирования до сотен scale units на регион, нацеленный на нагрузки с миллионами объектов (типично для training/tuning датасетов и управления checkpoint/model файлами).
- Microsoft отмечает, что инновации, использованные для поддержки операций масштаба OpenAI, становятся широко доступными для корпоративных клиентов.
2) Специализированное хранилище для AI compute: Azure Managed Lustre (AMLFS)
- Партнерство Azure с NVIDIA DGX on Azure сочетает ускоренные вычисления с Azure Managed Lustre, чтобы обеспечивать GPU-кластеры данными без простоев.
- AMLFS теперь включает preview-поддержку namespace на 25 PiB и до 512 GBps throughput, позиционируя его как топовый managed Lustre-вариант для крупных исследовательских и индустриальных сценариев инференса (например, automotive, robotics).
3) Интеграции с AI-экосистемой: более быстрый путь от данных к инференсу
- Планируется более глубокая интеграция с AI-фреймворками, включая Microsoft Foundry, Ray/Anyscale и LangChain.
- Нативная интеграция Azure Blob в Foundry позиционируется как способ консолидировать корпоративные данные в Foundry IQ для grounding знаний, fine-tuning и низколатентной подачи контекста — при сохранении governance и security внутри tenant.
4) Cloud-native приложения agentic-масштаба: блочное хранилище + оркестрация Kubernetes
- Microsoft отмечает, что агенты могут генерировать на порядок больше запросов, чем приложения, управляемые человеком, что создает нагрузку на уровни storage/database.
- Elastic SAN описывается как базовый строительный блок для SaaS-архитектур в стиле multi-tenant с managed пулами блочного хранилища и guardrails.
- Azure Container Storage (ACStor) по направлению развития смещается к Kubernetes operator model и намерению open source кодовую базу вместе с CSI-драйверами, чтобы упростить разработку stateful-приложений в Kubernetes.
5) Цена/производительность для критически важных нагрузок: SAP, ANF, Ultra Disk
- Для SAP HANA обновления M-series в Azure нацелены примерно на 780k IOPS и 16 GB/s throughput по дисковой производительности.
- Azure NetApp Files (ANF) и Azure Premium Files остаются ключевыми вариантами shared storage, с улучшениями TCO, такими как ANF Flexible Service Level и Azure Files Provisioned v2.
- В планах: Elastic ZRS service level в ANF для zone-redundant HA с синхронной репликацией между AZs.
- Подчеркивается производительность Ultra Disk (задержка менее 500µs; до 400K IOPS/10 GB/s, и до 800K IOPS/14 GB/s с VM Ebsv6).
Влияние на IT-администраторов и платформенные команды
- Ожидайте большего фокуса архитектуры на throughput, concurrency и data locality для инференс-ориентированных и agentic-приложений.
- Kubernetes operators и потенциальный open-source ACStor могут изменить то, как команды стандартизируют stateful workloads на AKS.
- Выбор хранилища становится более специфичным под нагрузку: Blob для датасетов/контекста, Lustre для GPU-пайплайнов, Elastic SAN/Ultra Disk для высоко-IOPS транзакционных требований, ANF для shared enterprise-нагрузок.
Рекомендованные действия / следующие шаги
- Сопоставьте AI workloads по фазам (training vs inference vs agentic) и привяжите к типам хранилищ (Blob + AMLFS + block/shared).
- Проверьте preview-лимиты AMLFS (25 PiB/512 GBps) и валидируйте узкие места GPU-пайплайнов, где Lustre может помочь.
- Оцените Elastic SAN для multi-tenant SaaS или высококонкурентных микросервисов, которым нужно pooled block storage.
- Планируйте ANF Elastic ZRS, если требуется zone-redundant NFS с предсказуемой производительностью для enterprise-приложений.
- Для команд AKS отслеживайте обновления ACStor operator + open-source, чтобы снизить потребность в кастомном управлении stateful storage.
Нужна помощь с Azure?
Наши эксперты помогут вам внедрить и оптимизировать решения Microsoft.
Поговорить с экспертомБудьте в курсе технологий Microsoft