Azure

Azure Storage 2026 pro AI: škálování a výkon

3 min čtení

Shrnutí

Roadmapa Azure Storage pro rok 2026 cílí na rychlejší a levnější provoz AI workloadů v produkci, od trénování přes ladění až po inference, a zároveň posiluje výkon i pro tradiční kritické systémy. Microsoft vyzdvihuje zejména škálované Blob účty pro práci s miliony objektů a Azure Managed Lustre s preview podporou až 25 PiB namespace a propustností 512 GB/s, což je důležité pro firmy, které potřebují spolehlivě krmit velké GPU clustery daty a škálovat AI bez zbytečných provozních komplikací.

Potřebujete pomoc s Azure?Mluvte s odborníkem

Úvod: proč na tom záleží

AI se posouvá od občasného experimentování k nepřetržité produkci—zejména inference a autonomních „agentic“ workloadů, které vytvářejí trvalé vzorce přístupu s vysokou souběžností. Roadmapa Azure Storage pro rok 2026 se zaměřuje na podporu end-to-end toků AI dat (trénování → ladění → inference) a současně na zlepšení nákladů, provozní jednoduchosti a výkonu pro tradiční mission-critical systémy, jako je SAP, i ultra-low latency obchodní platformy.

Co je nového (a co Microsoft zdůrazňuje)

1) Trénování ve frontier měřítku: Blob a vysokopropustné datové cesty

  • Blob scaled accounts jsou vyzdvihovány jako způsob škálování napříč stovkami scale units na region, cílený na workloady s miliony objektů (běžné u trénovacích/ladicích datasetů a správy checkpointů/modelových souborů).
  • Microsoft uvádí, že inovace použité k podpoře provozu ve škále OpenAI se stávají široce dostupnými pro podniky.

2) Účelové úložiště pro AI compute: Azure Managed Lustre (AMLFS)

  • Partnerství Azure s NVIDIA DGX on Azure kombinuje akcelerovaný compute s Azure Managed Lustre, aby byly GPU flotily průběžně zásobované daty.
  • AMLFS nyní zahrnuje preview podporu pro 25 PiB namespaces a až 512 GBps throughput, což jej staví do pozice špičkové managed Lustre volby pro rozsáhlý výzkum a průmyslové inference scénáře (např. automotive, robotika).

3) Integrace do AI ekosystému: rychlejší cesta od dat k inference

  • Plánuje se hlubší integrace napříč AI frameworky včetně Microsoft Foundry, Ray/Anyscale a LangChain.
  • Nativní integrace Azure Blob ve Foundry je prezentována jako cesta ke konsolidaci podnikových dat do Foundry IQ pro grounding znalostí, fine-tuning a low-latency poskytování kontextu—při zachování governance a zabezpečení v tenantovi.

4) Agentic škála cloud-native aplikací: block storage + Kubernetes orchestrace

  • Microsoft upozorňuje, že agenti mohou generovat o řád více dotazů než aplikace řízené člověkem, což zatěžuje vrstvy úložiště/databází.
  • Elastic SAN je popisován jako klíčový stavební blok pro SaaS multi-tenant architektury s managed pooly block storage a guardrails.
  • Směřování Azure Container Storage (ACStor) se posouvá směrem k modelu Kubernetes operator a k záměru open source kódovou bázi, spolu s CSI drivery, aby se zjednodušil vývoj stateful aplikací na Kubernetes.

5) Mission-critical poměr cena/výkon: SAP, ANF, Ultra Disk

  • Pro SAP HANA cílí aktualizace Azure M-series na ~780k IOPS a 16 GB/s throughput pro výkon disků.
  • Azure NetApp Files (ANF) a Azure Premium Files zůstávají klíčovými volbami sdíleného úložiště, s TCO zlepšeními jako ANF Flexible Service Level a Azure Files Provisioned v2.
  • Připravuje se: Elastic ZRS service level v ANF pro zone-redundant HA se synchronní replikací napříč AZs.
  • Zdůrazněn je výkon Ultra Disk (latence pod 500µs; až 400K IOPS/10 GB/s a až 800K IOPS/14 GB/s s Ebsv6 VMs).

Dopad na IT administrátory a platform týmy

  • Očekávejte větší důraz v architektuře na throughput, souběžnost a lokalitu dat u inference-heavy a agentic aplikací.
  • Kubernetes operátory a případný open-source ACStor mohou změnit způsob, jak týmy standardizují stateful workloady na AKS.
  • Volba úložiště bude více specifická podle workloadu: Blob pro datasety/kontext, Lustre pro GPU pipeline, Elastic SAN/Ultra Disk pro vysoce IOPS transakční nároky, ANF pro sdílené enterprise workloady.

Akční kroky / další postup

  1. Namapujte AI workloady podle fáze (trénování vs inference vs agentic) a slaďte je s typy úložišť (Blob + AMLFS + block/shared).
  2. Zrevidujte preview limity AMLFS (25 PiB/512 GBps) a ověřte bottlenecky GPU pipeline, kde může Lustre pomoci.
  3. Vyhodnoťte Elastic SAN pro multi-tenant SaaS nebo vysoce souběžné microservices vyžadující pooled block storage.
  4. Plánujte ANF Elastic ZRS, pokud potřebujete zone-redundant NFS s konzistentním výkonem pro enterprise aplikace.
  5. Pro týmy na AKS sledujte aktualizace ACStor operator + open-source, aby se omezila potřeba bespoke správy stateful storage.

Potřebujete pomoc s Azure?

Naši odborníci vám pomohou implementovat a optimalizovat vaše Microsoft řešení.

Mluvte s odborníkem

Buďte v obraze o technologiích Microsoft

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Související články

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.