Azure

Azure Storage 2026: AI-lagring for trening og inferens

3 min lesing

Sammendrag

Microsofts Azure Storage-veikart for 2026 retter seg mot hele AI-dataflyten, fra trening og finjustering til alltid-på inferens, med nye skalerings- og ytelsesforbedringer i Blob Storage og Azure Managed Lustre. Dette er viktig fordi virksomheter trenger lagring som kan håndtere enorme datamengder, høy samtidighet og GPU-intensive arbeidslaster mer kostnadseffektivt, samtidig som tradisjonelle kritiske systemer fortsatt får bedre ytelse og enklere drift.

Trenger du hjelp med Azure?Snakk med en ekspert

Introduksjon: hvorfor dette betyr noe

AI går fra sporadisk eksperimentering til alltid-på produksjon—særlig inferens og autonome «agentiske» arbeidslaster som driver vedvarende tilgangsmønstre med høy samtidighet. Azure Storage sin veikart for 2026 fokuserer på å muliggjøre ende-til-ende AI-dataflyt (trening → tuning → inferens), samtidig som kostnader, operasjonell enkelhet og ytelse forbedres for tradisjonelle virksomhetskritiske systemer som SAP og handelsplattformer med ultralav latenstid.

Hva er nytt (og hva Microsoft fremhever)

1) Trening i frontier-skala: Blob og databaner med høy gjennomstrømming

  • Blob scaled accounts løftes frem som en måte å skalere på tvers av hundrevis av scale units per region, rettet mot arbeidslaster med millioner av objekter (vanlig i trenings-/tuningdatasett og håndtering av checkpoint-/modellfiler).
  • Microsoft påpeker at innovasjoner brukt for å støtte operasjoner i OpenAI-skala blir bredt tilgjengelig for virksomheter.

2) Formålsbygget lagring for AI-compute: Azure Managed Lustre (AMLFS)

  • Azure sitt partnerskap med NVIDIA DGX on Azure kombinerer akselerert compute med Azure Managed Lustre for å holde GPU-flåter kontinuerlig matet.
  • AMLFS inkluderer nå preview-støtte for 25 PiB namespaces og opptil 512 GBps throughput, og posisjonerer seg som et ledende managed Lustre-alternativ for store forsknings- og industrielle inferensscenarioer (f.eks. bilindustri, robotikk).

3) Integrasjoner i AI-økosystemet: raskere vei fra data til inferens

  • Dypere integrasjon planlegges på tvers av AI-rammeverk, inkludert Microsoft Foundry, Ray/Anyscale og LangChain.
  • Native Azure Blob-integrasjon i Foundry posisjoneres for å bidra til å konsolidere virksomhetsdata i Foundry IQ for grounding av kunnskap, finjustering og servering av kontekst med lav latenstid—samtidig som governance og sikkerhet holdes innenfor tenant.

4) Agentisk skala i cloud-native apper: block storage + Kubernetes-orkestrering

  • Microsoft fremhever at agenter kan generere en størrelsesorden flere forespørsler enn menneskedrevne apper, noe som belaster lagrings-/database-lagene.
  • Elastic SAN beskrives som en kjernebyggestein for SaaS-lignende, multi-tenant-arkitekturer med administrerte block storage-pooler og guardrails.
  • Azure Container Storage (ACStor) dreies retningmessig mot Kubernetes operator-modellen og en intensjon om å open source code base, sammen med CSI-drivere, for å forenkle utvikling av stateful apper på Kubernetes.

5) Virksomhetskritisk pris/ytelse: SAP, ANF, Ultra Disk

  • For SAP HANA sikter Azure sine M-series-oppdateringer mot ~780k IOPS og 16 GB/s throughput for diskytelse.
  • Azure NetApp Files (ANF) og Azure Premium Files fortsetter som sentrale alternativer for delt lagring, med TCO-forbedringer som ANF Flexible Service Level og Azure Files Provisioned v2.
  • Kommer: Elastic ZRS service level i ANF for zone-redundant HA med synkron replikering på tvers av AZs.
  • Ultra Disk-ytelse vektlegges (under 500µs latenstid; opptil 400K IOPS/10 GB/s, og opptil 800K IOPS/14 GB/s med Ebsv6 VMs).

Konsekvenser for IT-administratorer og plattformteam

  • Forvent mer arkitekturfokus på throughput, samtidighet og datalokalitet for inferens-tunge og agentiske apper.
  • Kubernetes-operatorer og mulig open-source ACStor kan endre hvordan team standardiserer stateful workloads på AKS.
  • Valg av lagring blir mer arbeidslastspesifikt: Blob for datasett/kontekst, Lustre for GPU-pipelines, Elastic SAN/Ultra Disk for transaksjonelle behov med høy IOPS, ANF for delte enterprise-workloads.

Tiltak / neste steg

  1. Kartlegg AI-arbeidslaster etter fase (trening vs inferens vs agentisk) og tilpass til lagringstyper (Blob + AMLFS + block/shared).
  2. Vurder AMLFS preview-grenser (25 PiB/512 GBps) og valider flaskehalser i GPU-pipelines der Lustre kan hjelpe.
  3. Evaluer Elastic SAN for multi-tenant SaaS eller mikroservicer med høy samtidighet som trenger pooled block storage.
  4. Planlegg for ANF Elastic ZRS hvis du trenger zone-redundant NFS med konsistent ytelse for enterprise-apper.
  5. For AKS-team: følg med på ACStor operator + open-source-oppdateringer for å redusere behovet for skreddersydd håndtering av stateful storage.

Trenger du hjelp med Azure?

Våre eksperter kan hjelpe deg med å implementere og optimalisere dine Microsoft-løsninger.

Snakk med en ekspert

Hold deg oppdatert om Microsoft-teknologier

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Relaterte innlegg

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.