Azure

Azure Storage 2026 za AI treniranje i agentic inference

3 min čitanja

Sažetak

Microsoftov Azure Storage roadmap za 2026. stavlja fokus na AI tokove podataka, od treniranja i tuninga do stalno uključenog inference-a i agentic workload-ova, uz velika unapređenja skalabilnosti, protoka i upravljanja troškovima. Najvažnije novosti uključuju Blob scaled naloge za ogromne skupove podataka i Azure Managed Lustre sa podrškom do 25 PiB i 512 GBps, što je važno jer omogućava enterprise korisnicima da pokreću zahtevne AI i misijski kritične sisteme uz performanse koje su ranije bile rezervisane za hyperscale okruženja.

Trebate pomoć sa Azure?Razgovarajte sa stručnjakom

Uvod: zašto je ovo važno

AI prelazi sa povremenog eksperimentisanja na uvek-uključenu produkciju—posebno inference i autonomne „agentic” workload-ove koji generišu trajne obrasce pristupa sa velikom konkurentnošću. Azure Storage roadmap za 2026. fokusira se na omogućavanje end-to-end AI tokova podataka (training → tuning → inference), uz istovremena poboljšanja troškova, operativne jednostavnosti i performansi za tradicionalne misijski kritične sisteme kao što su SAP i trading platforme sa ultra-niskom latencijom.

Šta je novo (i šta Microsoft naglašava)

1) Treniranje na frontier skali: Blob i data putanje visokog protoka

  • Blob scaled accounts se ističu kao način za skaliranje kroz stotine scale units po regionu, ciljajući workload-ove sa milionima objekata (uobičajeno u training/tuning dataset-ovima i upravljanju checkpoint/model fajlovima).
  • Microsoft navodi da inovacije korišćene za podršku operacijama na OpenAI skali postaju široko dostupne enterprise korisnicima.

2) Namenski storage za AI compute: Azure Managed Lustre (AMLFS)

  • Azure partnerstvo sa NVIDIA DGX on Azure uparuje akcelerisan compute sa Azure Managed Lustre kako bi GPU flote imale kontinuiran dotok podataka.
  • AMLFS sada uključuje preview podršku za 25 PiB namespaces i do 512 GBps throughput, pozicionirajući ga kao top-tier managed Lustre opciju za velike research i industrijske inference scenarije (npr. automotive, robotika).

3) Integracije AI ekosistema: brži put od podataka do inference-a

  • Planirana je dublja integracija kroz AI framework-ove uključujući Microsoft Foundry, Ray/Anyscale i LangChain.
  • Native Azure Blob integracija u okviru Foundry pozicionirana je da pomogne u konsolidaciji enterprise podataka u Foundry IQ radi grounding-a znanja, fine-tuning-a i isporuke konteksta sa niskom latencijom—uz zadržavanje governance-a i bezbednosti unutar tenant-a.

4) Agentic cloud-native aplikacije u velikom obimu: block storage + Kubernetes orkestracija

  • Microsoft ističe da agenti mogu generisati za red veličine više upita nego aplikacije koje pokreću ljudi, što dodatno opterećuje storage/database slojeve.
  • Elastic SAN se opisuje kao osnovni building block za SaaS-stil, multi-tenant arhitekture sa managed block storage pool-ovima i guardrails.
  • Smer razvoja za Azure Container Storage (ACStor) pomera se ka Kubernetes operator model-u i nameri da se open source-uje code base, zajedno sa CSI driver-ima, kako bi se pojednostavio razvoj stateful aplikacija na Kubernetes-u.

5) Misijski kritičan price/performance: SAP, ANF, Ultra Disk

  • Za SAP HANA, Azure M-series unapređenja ciljaju oko 780k IOPS i 16 GB/s throughput za disk performanse.
  • Azure NetApp Files (ANF) i Azure Premium Files i dalje su ključne shared storage opcije, uz TCO poboljšanja poput ANF Flexible Service Level i Azure Files Provisioned v2.
  • U najavi: Elastic ZRS service level u ANF za zone-redundant HA sa sinhronom replikacijom preko AZ-ova.
  • Naglašene su performanse Ultra Disk (latencija ispod 500µs; do 400K IOPS/10 GB/s, i do 800K IOPS/14 GB/s uz Ebsv6 VM-ove).

Uticaj na IT administratore i platform timove

  • Očekujte veći arhitektonski fokus na throughput, concurrency i data locality za inference-heavy i agentic aplikacije.
  • Kubernetes operator-i i potencijalno open-source ACStor mogu promeniti način na koji timovi standardizuju stateful workload-ove na AKS.
  • Izbor storage-a postaje specifičniji po workload-u: Blob za dataset-ove/kontekst, Lustre za GPU pipeline-ove, Elastic SAN/Ultra Disk za transakcione zahteve sa visokim IOPS-om, ANF za shared enterprise workload-ove.

Akcioni koraci / sledeći potezi

  1. Mapirajte AI workload-ove po fazama (training vs inference vs agentic) i uskladite ih sa tipovima storage-a (Blob + AMLFS + block/shared).
  2. Pregledajte AMLFS preview limite (25 PiB/512 GBps) i validirajte uska grla GPU pipeline-a gde Lustre može pomoći.
  3. Procijenite Elastic SAN za multi-tenant SaaS ili high-concurrency microservices kojima je potreban pooled block storage.
  4. Planirajte ANF Elastic ZRS ako vam treba zone-redundant NFS sa konzistentnim performansama za enterprise aplikacije.
  5. Za AKS timove, pratite ACStor operator + open-source ažuriranja kako biste smanjili bespoke upravljanje stateful storage-om.

Trebate pomoć sa Azure?

Naši stručnjaci mogu vam pomoći da implementirate i optimizujete vaša Microsoft rešenja.

Razgovarajte sa stručnjakom

Budite u toku sa Microsoft tehnologijama

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Povezani članci

Azure

Microsoft The Shift podcast o izazovima agentic AI

Microsoft je pokrenuo podcast The Shift, novu verziju serijala Leading the Shift, sa osam nedeljnih epizoda fokusiranih na agentic AI i praktične izazove njegove primene u Azure i enterprise okruženjima. Ovo je važno jer pokazuje da AI agenti više nisu samo eksperimentalna funkcija, već arhitektonski i operativni izazov koji traži kvalitetne podatke, orkestraciju, bezbednost, upravljanje i jasne platformske odluke.

Azure

Azure i agentic AI za modernizaciju clouda

Microsoft poručuje da Azure u kombinaciji sa agentic AI može da ubrza modernizaciju clouda, posebno u regulisanim industrijama gde migracije koče zastarela infrastruktura, usklađenost i kritični sistemi. Vest je važna jer pokazuje da cloud više nije samo pitanje smanjenja troškova, već i osnove za veću operativnu agilnost, otpornost i spremnost za širu primenu AI u sektorima poput zdravstva i finansija.

Azure

Fireworks AI u Microsoft Foundry na Azure preview

Microsoft je pokrenuo javni preview Fireworks AI u okviru Microsoft Foundry na Azure, omogućavajući brzu inferenciju otvorenih modela preko jednog Azure endpointa uz enterprise upravljanje, governance i lakši prelazak iz testiranja u produkciju. Ovo je važno jer organizacijama pojednostavljuje rad sa otvorenim modelima, nudi fleksibilne modele implementacije poput serverless i PTU opcija, kao i podršku za prilagođene modele kroz BYOW pristup.

Azure

Azure Copilot agenti za migraciju i modernizaciju

Microsoft je predstavio nove Azure Copilot i GitHub Copilot agente za migraciju i modernizaciju, koji su sada u public preview fazi i pomažu timovima da automatizuju otkrivanje, procenu, planiranje i primenu promena kroz ceo proces. Ovo je važno jer organizacijama olakšava prelazak sa sporih i fragmentisanih modernizacionih projekata na povezan, kontinuiran tok rada, što ubrzava usvajanje AI-ja i smanjuje troškove i složenost transformacije.

Azure

Azure IaaS Resource Center za otpornu infrastrukturu

Microsoft je predstavio Azure IaaS Resource Center kao centralno mesto za smernice, arhitektonske resurse, demo sadržaje i preporuke za optimizaciju compute, storage i networking okruženja u Azure-u. Ovo je važno jer pomaže infrastrukturnim timovima da Azure IaaS planiraju i vode kao jedinstvenu, otpornu i troškovno efikasnu platformu, posebno za kritične poslovne, analitičke i AI workloadove.

Azure

Microsoft Foundry ROI 327%: Forrester AI studija

Nova Forrester TEI studija pokazuje da Microsoft Foundry može da donese 327% ROI u periodu od tri godine, uz povraćaj investicije za šest meseci, kroz veće uštede na infrastrukturi i značajan rast produktivnosti tehničkih timova. Ovo je važno jer ukazuje da najveći trošak enterprise AI projekata često nije sam model, već vreme koje developeri troše na infrastrukturu, integracije i upravljanje, pa objedinjena platforma može ubrzati isporuku poslovne vrednosti.