Azure

Azure Storage 2026: AI, skalowanie i wydajność

3 min czytania

Podsumowanie

Microsoft zapowiada, że roadmapa Azure Storage na 2026 rok będzie mocno skupiona na obsłudze obciążeń AI — od treningu i tuningu po inference — z naciskiem na większą skalę, przepustowość i prostszą eksploatację. Kluczowe nowości, takie jak Blob scaled accounts oraz Azure Managed Lustre z obsługą namespace’ów do 25 PiB i przepustowością do 512 GB/s, mają znaczenie, bo pomagają firmom efektywnie zasilać klastry GPU, obsługiwać miliony obiektów i lepiej przygotować infrastrukturę pod wymagające, zawsze aktywne systemy AI oraz aplikacje krytyczne biznesowo.

Potrzebujesz pomocy z Azure?Porozmawiaj z ekspertem

Wprowadzenie: dlaczego to ma znaczenie

AI przechodzi od okazjonalnych eksperymentów do zawsze-włączonej produkcji — zwłaszcza inference oraz autonomicznych obciążeń „agentic”, które generują trwałe wzorce dostępu o wysokiej współbieżności. Roadmapa Azure Storage na 2026 rok koncentruje się na umożliwieniu end-to-end przepływów danych dla AI (training → tuning → inference), a także na poprawie kosztów, prostoty operacyjnej i wydajności dla tradycyjnych systemów krytycznych, takich jak SAP, oraz platform tradingowych o ultra-niskich opóźnieniach.

Co nowego (i na co Microsoft kładzie nacisk)

1) Training w skali frontier: Blob i ścieżki danych o wysokiej przepustowości

  • Blob scaled accounts są podkreślane jako sposób skalowania w ramach setek scale units na region, celując w obciążenia z milionami obiektów (typowe dla datasetów training/tuning oraz zarządzania checkpointami/plikami modeli).
  • Microsoft wskazuje, że innowacje wykorzystywane do obsługi operacji w skali OpenAI stają się szerzej dostępne dla przedsiębiorstw.

2) Storage zaprojektowany pod AI compute: Azure Managed Lustre (AMLFS)

  • Partnerstwo Azure z NVIDIA DGX on Azure łączy akcelerowane compute z Azure Managed Lustre, aby utrzymać odpowiednie zasilanie danych dla flot GPU.
  • AMLFS obejmuje teraz wsparcie w wersji preview dla namespaces 25 PiB oraz do 512 GBps throughput, pozycjonując go jako czołową, zarządzaną opcję Lustre dla dużych scenariuszy badawczych i przemysłowych inference (np. automotive, robotics).

3) Integracje ekosystemu AI: szybsza droga od danych do inference

  • Planowana jest głębsza integracja w ramach frameworków AI, w tym Microsoft Foundry, Ray/Anyscale oraz LangChain.
  • Natywna integracja Azure Blob w Foundry ma wspierać konsolidację danych firmowych w Foundry IQ na potrzeby grounding wiedzy, fine-tuningu oraz niskolatencyjnego serwowania kontekstu — przy zachowaniu governance i security w ramach tenant.

4) Cloud-native aplikacje agentic w skali: block storage + orkiestracja Kubernetes

  • Microsoft zwraca uwagę, że agenci mogą generować rzędy wielkości więcej zapytań niż aplikacje sterowane przez ludzi, obciążając warstwy storage/database.
  • Elastic SAN jest opisywany jako kluczowy element architektur typu SaaS, multi-tenant, z zarządzanymi pulami block storage i guardrails.
  • Kierunek rozwoju Azure Container Storage (ACStor) przesuwa się w stronę modelu operatora Kubernetes oraz intencji open source bazy kodu, wraz ze sterownikami CSI, aby uprościć rozwój aplikacji stanowych na Kubernetes.

5) Krytyczne cena/wydajność: SAP, ANF, Ultra Disk

  • Dla SAP HANA aktualizacje serii M w Azure celują w ok. 780k IOPS oraz 16 GB/s throughput dla wydajności dysków.
  • Azure NetApp Files (ANF) oraz Azure Premium Files pozostają kluczowymi opcjami shared storage, z usprawnieniami TCO takimi jak ANF Flexible Service Level oraz Azure Files Provisioned v2.
  • Nadchodzi: Elastic ZRS service level w ANF dla zone-redundant HA z synchroniczną replikacją pomiędzy AZs.
  • Podkreślana jest wydajność Ultra Disk (opóźnienia poniżej 500µs; do 400K IOPS/10 GB/s, oraz do 800K IOPS/14 GB/s z VM Ebsv6).

Wpływ na administratorów IT i zespoły platformowe

  • Należy oczekiwać większego nacisku architektonicznego na throughput, współbieżność i lokalność danych dla aplikacji intensywnie korzystających z inference oraz agentic.
  • Operatory Kubernetes oraz potencjalny open-source ACStor mogą zmienić sposób, w jaki zespoły standaryzują obciążenia stanowe na AKS.
  • Dobór storage staje się bardziej zależny od obciążenia: Blob dla datasetów/kontekstu, Lustre dla pipeline’ów GPU, Elastic SAN/Ultra Disk dla transakcyjnych wymagań wysokiego IOPS, ANF dla współdzielonych obciążeń enterprise.

Działania / kolejne kroki

  1. Zmapuj obciążenia AI według fazy (training vs inference vs agentic) i dopasuj do typów storage (Blob + AMLFS + block/shared).
  2. Zweryfikuj limity preview AMLFS (25 PiB/512 GBps) i potwierdź bottlenecki w pipeline’ach GPU, gdzie Lustre może pomóc.
  3. Oceń Elastic SAN dla multi-tenant SaaS lub mikroserwisów o wysokiej współbieżności, które potrzebują pulowanego block storage.
  4. Zaplanuj ANF Elastic ZRS, jeśli potrzebujesz zone-redundant NFS o spójnej wydajności dla aplikacji enterprise.
  5. Dla zespołów AKS: śledź aktualizacje ACStor operator + open-source, aby ograniczyć niestandardowe zarządzanie storage dla aplikacji stanowych.

Potrzebujesz pomocy z Azure?

Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.

Porozmawiaj z ekspertem

Bądź na bieżąco z technologiami Microsoft

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Powiązane artykuły

Azure

Agentic AI w Azure: podcast Microsoft The Shift

Microsoft uruchomił podcast The Shift, którego wiosenny sezon skupi się na agentic AI w Azure i środowiskach enterprise, omawiając m.in. dane, koordynację wielu agentów, context engineering, architekturę oraz governance. To ważne, ponieważ pokazuje, że agenci AI przestają być jedynie koncepcją produktową i stają się realnym wyzwaniem dla zespołów IT, wymagającym przemyślenia całego stosu technologicznego, bezpieczeństwa i organizacji pracy.

Azure

Azure i agentic AI w modernizacji chmury regulowanej

Microsoft wskazuje, że Azure w połączeniu z agentic AI może przyspieszyć modernizację chmury w branżach regulowanych, automatyzując ocenę obciążeń, orkiestrację migracji i procesy modernizacyjne. To ważne, ponieważ organizacje coraz częściej przenoszą się do chmury nie tylko dla oszczędności i wydajności, ale też po to, by poprawić zgodność, odporność oraz przygotować środowiska pod szersze wykorzystanie AI.

Azure

Fireworks AI w Microsoft Foundry na Azure — publiczna preview

Microsoft udostępnił w publicznej wersji zapoznawczej integrację Fireworks AI z Microsoft Foundry na Azure, umożliwiając uruchamianie otwartych modeli przez jeden punkt końcowy z wysoką wydajnością, niskimi opóźnieniami oraz opcjami serverless i BYOW. To ważne dla firm, bo upraszcza przejście od testów do produkcji, łącząc szybką inferencję z centralnym zarządzaniem, nadzorem i obsługą modeli takich jak DeepSeek V3.2, gpt-oss-120b, Kimi K2.5 i MiniMax M2.5.

Azure

Azure Copilot do migracji i modernizacji aplikacji AI

Microsoft zapowiedział nowe agentowe funkcje w Azure Copilot i GitHub Copilot, które mają usprawnić migrację i modernizację aplikacji, infrastruktury, baz danych oraz kodu z pomocą AI. To ważne, ponieważ firmy często zmagają się z rozproszonym i złożonym procesem modernizacji, a nowe narzędzia mają przyspieszyć planowanie, ocenę kosztów i wdrażanie zmian na dużą skalę.

Azure

Azure IaaS Resource Center: centrum projektowania infrastruktury

Microsoft uruchomił Azure IaaS Resource Center — nowe centrum wiedzy, które zbiera w jednym miejscu wytyczne projektowe, materiały architektoniczne i najlepsze praktyki dla compute, storage i networkingu w Azure. To ważne, bo ma pomóc zespołom traktować IaaS jako spójną platformę do budowy wydajnej, odpornej i opłacalnej infrastruktury, co staje się kluczowe przy obsłudze tradycyjnych aplikacji, usług rozproszonych i obciążeń AI.

Azure

Microsoft Foundry: 327% ROI dla platformy enterprise AI

Badanie Forrester TEI wskazuje, że Microsoft Foundry może przynieść organizacjom enterprise AI 327% ROI w trzy lata, zwrot już po sześciu miesiącach oraz nawet 49,5 mln USD korzyści przy inwestycji 11,6 mln USD. To ważne dla działów IT i liderów AI, ponieważ pokazuje, że największe oszczędności i wzrost produktywności wynikają z ograniczenia czasu traconego na składanie infrastruktury, governance i pipeline’ów zamiast na dostarczanie wartości biznesowej.