Azure

Azure Storage 2026 til AI-træning og agentisk inferens

3 min læsning

Resumé

Microsofts roadmap for Azure Storage i 2026 fokuserer på at understøtte hele AI-dataflowet fra træning til inferens med højere skalerbarhed, throughput og enklere drift. Det er vigtigt, fordi virksomheder får adgang til storage-funktioner i OpenAI-skala, herunder Blob scaled accounts og Azure Managed Lustre med op til 25 PiB namespaces og 512 GBps, hvilket kan forbedre både AI-workloads og traditionelle missionskritiske systemer med stramme krav til ydeevne og latency.

Brug for hjælp med Azure?Tal med en ekspert

Introduktion: hvorfor det betyder noget

AI bevæger sig fra sporadisk eksperimentering til altid-aktiv produktion—særligt inferens og autonome “agentic”-workloads, der skaber vedvarende access-mønstre med høj samtidighed. Azure Storage’s roadmap for 2026 fokuserer på at muliggøre end-to-end AI-dataflows (training → tuning → inference), samtidig med at omkostninger, operationel enkelhed og ydeevne forbedres for traditionelle missionskritiske systemer som SAP og trading-platforme med ultralav latency.

Hvad er nyt (og hvad Microsoft fremhæver)

1) Training i frontier-skala: Blob og data-stier med høj throughput

  • Blob scaled accounts fremhæves som en måde at skalere på tværs af hundredvis af scale units pr. region, målrettet workloads med millioner af objekter (typisk i training-/tuning-datasæt og håndtering af checkpoints/model-filer).
  • Microsoft bemærker, at innovationer, der bruges til at understøtte drift i OpenAI-skala, bliver bredt tilgængelige for virksomheder.

2) Formålsbygget storage til AI compute: Azure Managed Lustre (AMLFS)

  • Azures partnerskab med NVIDIA DGX on Azure kombinerer accelereret compute med Azure Managed Lustre for at holde GPU-farmer forsynet.
  • AMLFS inkluderer nu preview-understøttelse af 25 PiB namespaces og op til 512 GBps throughput, hvilket positionerer det som en førende managed Lustre-mulighed til store forsknings- og industriel-inferens-scenarier (fx automotive og robotics).

3) AI-økosystem-integrationer: hurtigere vej fra data til inference

  • Der planlægges dybere integration på tværs af AI-frameworks, herunder Microsoft Foundry, Ray/Anyscale og LangChain.
  • Native Azure Blob-integration i Foundry positioneres til at hjælpe med at konsolidere enterprise-data i Foundry IQ til grounding af viden, fine-tuning og low-latency context serving—samtidig med at governance og security holdes inden for tenant’en.

4) Agentic scale cloud-native apps: block storage + Kubernetes-orkestrering

  • Microsoft fremhæver, at agents kan generere en størrelsesorden flere forespørgsler end menneskedrevne apps, hvilket belaster storage-/database-lag.
  • Elastic SAN beskrives som en central byggesten til SaaS-lignende, multi-tenant-arkitekturer med managed block storage pools og guardrails.
  • Azure Container Storage (ACStor) bevæger sig retning af Kubernetes operator-modellen og et mål om at open source code base, sammen med CSI drivers, for at forenkle udvikling af stateful apps på Kubernetes.

5) Missionskritisk pris/ydelse: SAP, ANF, Ultra Disk

  • Til SAP HANA sigter Azures M-series-opdateringer mod ~780k IOPS og 16 GB/s throughput for disk performance.
  • Azure NetApp Files (ANF) og Azure Premium Files fortsætter som centrale shared storage-muligheder, med TCO-forbedringer som ANF Flexible Service Level og Azure Files Provisioned v2.
  • På vej: Elastic ZRS service level i ANF til zone-redundant HA med synkron replikering på tværs af AZs.
  • Ultra Disk-ydeevne fremhæves (sub-500µs latency; op til 400K IOPS/10 GB/s, og op til 800K IOPS/14 GB/s med Ebsv6 VMs).

Effekt for IT-admins og platform-teams

  • Forvent mere arkitekturfokus på throughput, samtidighed og data locality for inferens-tunge og agentic apps.
  • Kubernetes operators og en mulig open-source ACStor kan ændre, hvordan teams standardiserer stateful workloads på AKS.
  • Storage-valg bliver mere workload-specifikt: Blob til datasæt/kontekst, Lustre til GPU-pipelines, Elastic SAN/Ultra Disk til high-IOPS transaktionelle behov, ANF til shared enterprise-workloads.

Action items / næste skridt

  1. Kortlæg AI-workloads efter fase (training vs inference vs agentic) og match til storage-typer (Blob + AMLFS + block/shared).
  2. Gennemgå AMLFS preview-grænser (25 PiB/512 GBps) og valider GPU pipeline-flaskehalse, hvor Lustre kan hjælpe.
  3. Vurder Elastic SAN til multi-tenant SaaS eller microservices med høj samtidighed, der kræver pooled block storage.
  4. Planlæg for ANF Elastic ZRS hvis du har brug for zone-redundant NFS med konsistent ydeevne til enterprise-apps.
  5. For AKS-teams: følg ACStor operator + open-source-opdateringer for at reducere skræddersyet håndtering af stateful storage.

Brug for hjælp med Azure?

Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.

Tal med en ekspert

Hold dig opdateret om Microsoft-teknologier

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Relaterede indlæg

Azure

Microsoft The Shift podcast om agentic AI i Azure

Microsoft lancerer podcastserien The Shift med otte ugentlige episoder om agentic AI i Azure, hvor fokus flyttes fra enkeltstående AI-funktioner til hele arkitekturen bag agenter. Det er vigtigt, fordi Microsoft tydeliggør, at succes med AI-agenter afhænger af data, orkestrering, platforme som Postgres, Fabric og OneLake samt stærk sikkerhed og governance på tværs af enterprise-miljøer.

Azure

Azure og agentic AI til cloud-modernisering i regulerede brancher

Microsoft fremhæver, at Azure kombineret med agentic AI kan hjælpe regulerede brancher med at modernisere legacy-miljøer hurtigere og mere sikkert ved at automatisere workload-vurderinger, migrering og driftsoptimering. Det er vigtigt, fordi cloud-modernisering nu ikke kun handler om lavere omkostninger, men også om bedre compliance, større robusthed og at gøre organisationer klar til øget brug af AI.

Azure

Fireworks AI i Microsoft Foundry på Azure i preview

Microsoft har lanceret Fireworks AI i offentlig preview på Microsoft Foundry i Azure, så virksomheder kan køre åbne modeller med høj throughput og lav latenstid via ét samlet Azure-endpoint. Det er vigtigt, fordi det gør det lettere at gå fra eksperimenter til produktion med bedre enterprise-governance, fleksible deployments som serverless/pay-per-token og mulighed for at medbringe egne finjusterede modelvægte.

Azure

Azure Copilot migration agent til app-modernisering

Microsoft har annonceret nye agentbaserede funktioner i Azure Copilot og GitHub Copilot, der skal gøre applikationsmodernisering enklere ved at samle discovery, vurdering, planlægning og deployment i ét sammenhængende workflow. Det er vigtigt, fordi modernisering ofte bremser virksomheders AI-adoption, og de nye værktøjer kan hjælpe IT- og udviklingsteams med hurtigere at kortlægge afhængigheder, prioritere indsatser og gennemføre migrationer mere effektivt.

Azure

Azure IaaS Resource Center til robust infrastruktur

Microsoft har lanceret Azure IaaS Resource Center, et samlet knudepunkt med vejledning, demoer, arkitekturressourcer og best practices til at designe, optimere og drive Azure-infrastruktur. Det er vigtigt, fordi det hjælper organisationer med at behandle compute, storage og netværk som én samlet platform, hvilket kan forbedre ydeevne, robusthed, sikkerhed og omkostningsstyring på tværs af både traditionelle applikationer og AI-workloads.

Azure

Microsoft Foundry ROI på 327 % i ny Forrester-rapport

En ny Forrester TEI-rapport peger på, at Microsoft Foundry kan give virksomheder 327 % ROI over tre år, tilbagebetaling på omkring seks måneder og markante gevinster i både udviklerproduktivitet og infrastrukturomkostninger. Det er især vigtigt for IT-administratorer, fordi rapporten understreger, at en samlet AI-platform kan reducere spildtid på integration, governance og datapipelines og dermed få enterprise AI-projekter hurtigere til at skabe forretningsværdi.