Azure

Azure Storage 2026 för AI-träning och inferens

3 min läsning

Sammanfattning

Microsoft presenterar Azure Storage-planerna för 2026 med tydligt fokus på AI i produktion, från storskalig träning till alltid-på-inferens, genom nya Blob scaled accounts och förbättrad Azure Managed Lustre med mycket hög kapacitet och genomströmning. Det är viktigt eftersom företag får bättre förutsättningar att hantera enorma datamängder, hålla GPU-resurser fullt utnyttjade och samtidigt sänka komplexitet och kostnader för både AI-arbetslaster och traditionella affärskritiska system.

Behöver du hjälp med Azure?Prata med en expert

Introduktion: varför detta spelar roll

AI går från sporadisk experimentering till alltid-på i produktion—särskilt inferens och autonoma ”agentic”-arbetslaster som driver långvariga åtkomstmönster med hög samtidighet. Azure Storage:s roadmap för 2026 fokuserar på att möjliggöra end-to-end AI-dataflöden (träning → tuning → inferens), samtidigt som man förbättrar kostnad, operativ enkelhet och prestanda för traditionella verksamhetskritiska system som SAP och handelsplattformar med ultralåg latens.

Vad är nytt (och vad Microsoft betonar)

1) Träning i frontier-skala: Blob och dataflöden med hög genomströmning

  • Blob scaled accounts lyfts fram som ett sätt att skala över hundratals scale units per region, riktat mot arbetslaster med miljontals objekt (vanligt i tränings-/tuning-dataset samt hantering av checkpoints/modellfiler).
  • Microsoft noterar att innovationer som används för att stödja drift i OpenAI-skala blir brett tillgängliga för företag.

2) Ändamålsbyggd lagring för AI compute: Azure Managed Lustre (AMLFS)

  • Azure:s samarbete med NVIDIA DGX on Azure parar accelererad compute med Azure Managed Lustre för att hålla GPU-flottor matade.
  • AMLFS inkluderar nu preview-stöd för 25 PiB namespaces och upp till 512 GBps throughput, vilket positionerar det som ett managed Lustre-alternativ i toppklass för stora forsknings- och industriella inferensscenarier (t.ex. fordonsindustri, robotik).

3) AI-ekosystemintegrationer: snabbare vägar från data till inferens

  • Djupare integration planeras över AI-ramverk inklusive Microsoft Foundry, Ray/Anyscale och LangChain.
  • Native Azure Blob integration within Foundry positioneras för att hjälpa till att konsolidera företagsdata i Foundry IQ för grounding av kunskap, fine-tuning och låg-latens context serving—samtidigt som styrning och säkerhet hålls inom tenant.

4) Agentic-skala cloud-native appar: block storage + Kubernetes-orkestrering

  • Microsoft framhåller att agenter kan generera en storleksordning fler frågor än appar drivna av människor, vilket belastar lager- och databaslager.
  • Elastic SAN beskrivs som en central byggsten för SaaS-liknande, multi-tenant-arkitekturer med managed block storage-pooler och guardrails.
  • Azure Container Storage (ACStor) rör sig riktningmässigt mot Kubernetes operator model och en ambition att open source code base, tillsammans med CSI-drivrutiner, för att förenkla utveckling av stateful appar på Kubernetes.

5) Verksamhetskritisk pris/prestanda: SAP, ANF, Ultra Disk

  • För SAP HANA siktar Azure:s M-series-uppdateringar på ~780k IOPS och 16 GB/s throughput för diskprestanda.
  • Azure NetApp Files (ANF) och Azure Premium Files fortsätter som centrala alternativ för shared storage, med TCO-förbättringar som ANF Flexible Service Level och Azure Files Provisioned v2.
  • På väg: Elastic ZRS service level in ANF för zone-redundant HA med synkron replikering över AZs.
  • Ultra Disk-prestanda betonas (sub-500µs latency; upp till 400K IOPS/10 GB/s, och upp till 800K IOPS/14 GB/s med Ebsv6 VMs).

Påverkan på IT-admins och plattformsteam

  • Förvänta mer arkitekturfokus på throughput, concurrency och data locality för inferens-tunga och agentic-appar.
  • Kubernetes operators och potentiellt open-source ACStor kan förändra hur team standardiserar stateful workloads på AKS.
  • Val av lagring blir mer arbetslastspecifikt: Blob för dataset/context, Lustre för GPU-pipelines, Elastic SAN/Ultra Disk för transaktionella krav med höga IOPS, ANF för delade enterprise workloads.

Åtgärder / nästa steg

  1. Kartlägg AI-arbetslaster per fas (träning vs inferens vs agentic) och matcha mot lagringstyper (Blob + AMLFS + block/shared).
  2. Granska AMLFS preview-gränser (25 PiB/512 GBps) och validera flaskhalsar i GPU-pipelines där Lustre kan hjälpa.
  3. Utvärdera Elastic SAN för multi-tenant SaaS eller microservices med hög samtidighet som behöver pooled block storage.
  4. Planera för ANF Elastic ZRS om du behöver zone-redundant NFS med konsekvent prestanda för enterprise-appar.
  5. För AKS-team: följ uppdateringar om ACStor operator + open-source för att minska skräddarsydd hantering av stateful storage.

Behöver du hjälp med Azure?

Våra experter kan hjälpa dig att implementera och optimera dina Microsoft-lösningar.

Prata med en expert

Håll dig uppdaterad om Microsoft-teknologier

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Relaterade inlägg

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.