Azure

Azure Storage 2026: KI-Datenplattform für Training

3 Min. Lesezeit

Zusammenfassung

Microsoft richtet die Azure-Storage-Roadmap 2026 klar auf KI aus: Neue skalierte Blob-Konten und Azure Managed Lustre sollen riesige Trainings-, Tuning- und Inferenz-Datenströme mit sehr hoher Kapazität und Performance bedienen. Das ist wichtig, weil Unternehmen damit KI-Workloads im großen Maßstab sowie klassische latenzkritische Systeme effizienter, einfacher und kostengünstiger betreiben können.

Brauchen Sie Hilfe mit Azure?Mit einem Experten sprechen

Einführung: warum das wichtig ist

KI entwickelt sich von gelegentlichen Experimenten hin zu dauerhaftem Produktivbetrieb – insbesondere Inferenz und autonome „agentische“ Workloads, die anhaltende, hochgradig konkurrierende Zugriffsmuster erzeugen. Die Azure Storage-Roadmap für 2026 konzentriert sich darauf, durchgängige KI-Datenflüsse (Training → Tuning → Inferenz) zu ermöglichen und zugleich Kosten, betriebliche Einfachheit und Performance für klassische geschäftskritische Systeme wie SAP und Ultra-Low-Latency-Trading-Plattformen zu verbessern.

Was ist neu (und was Microsoft betont)

1) Training im Frontier-Maßstab: Blob und High-Throughput-Datenpfade

  • Blob scaled accounts werden als Ansatz hervorgehoben, um über Hunderte von Scale Units pro Region zu skalieren – für Workloads mit Millionen von Objekten (typisch für Training-/Tuning-Datasets sowie Checkpoint-/Modelldatei-Management).
  • Microsoft weist darauf hin, dass Innovationen zur Unterstützung von OpenAI-Scale-Operationen zunehmend breit für Unternehmen verfügbar werden.

2) Zweckgebauter Storage für KI-Compute: Azure Managed Lustre (AMLFS)

  • Azure’s Partnerschaft mit NVIDIA DGX on Azure kombiniert beschleunigte Compute-Ressourcen mit Azure Managed Lustre, um GPU-Fleets kontinuierlich mit Daten zu versorgen.
  • AMLFS bietet nun Preview-Support für 25 PiB Namespaces und bis zu 512 GBps Durchsatz und positioniert sich damit als erstklassige Managed-Lustre-Option für große Forschungs- und industrielle Inferenzszenarien (z. B. Automotive, Robotik).

3) KI-Ökosystem-Integrationen: schnellere Wege von Daten zur Inferenz

  • Geplant sind tiefere Integrationen in KI-Frameworks, darunter Microsoft Foundry, Ray/Anyscale und LangChain.
  • Native Azure Blob-Integration in Foundry soll dabei helfen, Unternehmensdaten in Foundry IQ zu konsolidieren – für Knowledge Grounding, Fine-Tuning und Low-Latency-Context-Serving – bei gleichzeitiger Beibehaltung von Governance und Security innerhalb des Tenants.

4) Agentischer Scale bei Cloud-native Apps: Block Storage + Kubernetes-Orchestrierung

  • Microsoft hebt hervor, dass Agents eine Größenordnung mehr Abfragen als menschlich getriebene Apps erzeugen können und damit Storage-/Database-Layer stark belasten.
  • Elastic SAN wird als zentraler Baustein für SaaS-artige, Multi-Tenant-Architekturen mit verwalteten Block-Storage-Pools und Guardrails beschrieben.
  • Azure Container Storage (ACStor) verschiebt sich strategisch in Richtung Kubernetes-Operator-Modell und mit der Absicht, die Codebase als Open Source bereitzustellen – zusammen mit CSI-Treibern –, um die Entwicklung zustandsbehafteter Apps auf Kubernetes zu vereinfachen.

5) Preis/Performance für geschäftskritische Workloads: SAP, ANF, Ultra Disk

  • Für SAP HANA zielen Azure’s M-series-Updates auf ca. 780k IOPS und 16 GB/s Durchsatz bei der Disk-Performance.
  • Azure NetApp Files (ANF) und Azure Premium Files bleiben zentrale Shared-Storage-Optionen, mit TCO-Verbesserungen wie ANF Flexible Service Level und Azure Files Provisioned v2.
  • In Vorbereitung: Elastic ZRS service level in ANF für zone-redundante HA mit synchroner Replikation über AZs hinweg.
  • Ultra Disk-Performance wird betont (Latenz unter 500µs; bis zu 400K IOPS/10 GB/s sowie bis zu 800K IOPS/14 GB/s mit Ebsv6-VMs).

Auswirkungen auf IT-Admins und Plattform-Teams

  • Es ist mit mehr Architektur-Fokus auf Durchsatz, Concurrency und Datenlokalität für Inferenz-lastige und agentische Apps zu rechnen.
  • Kubernetes-Operatoren und ein potenziell Open-Source-ACStor könnten ändern, wie Teams zustandsbehaftete Workloads auf AKS standardisieren.
  • Die Storage-Auswahl wird stärker workload-spezifisch: Blob für Datasets/Context, Lustre für GPU-Pipelines, Elastic SAN/Ultra Disk für High-IOPS-Transaktionsanforderungen, ANF für geteilte Enterprise-Workloads.

Action Items / nächste Schritte

  1. KI-Workloads nach Phase (Training vs. Inferenz vs. agentisch) abbilden und auf Storage-Typen ausrichten (Blob + AMLFS + Block/Shared).
  2. AMLFS-Preview-Limits (25 PiB/512 GBps) prüfen und GPU-Pipeline-Bottlenecks validieren, bei denen Lustre helfen kann.
  3. Elastic SAN für Multi-Tenant-SaaS oder hochkonkurrierende Microservices evaluieren, die gepoolten Block Storage benötigen.
  4. ANF Elastic ZRS einplanen, wenn zone-redundantes NFS mit konsistenter Performance für Enterprise-Apps benötigt wird.
  5. Für AKS-Teams: ACStor-Operator + Open-Source-Updates verfolgen, um maßgeschneidertes Management zustandsbehafteter Storage-Setups zu reduzieren.

Brauchen Sie Hilfe mit Azure?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Verwandte Beiträge

Azure

Microsoft Podcast zu Agentic AI: The Shift gestartet

Microsoft startet mit „The Shift“ eine neue Podcast-Reihe, die sich in acht Folgen auf Agentic AI konzentriert und Themen wie Datenzugriff, Multi-Agent-Orchestrierung, Context Engineering, Plattformen wie Postgres, Fabric und OneLake sowie Governance behandelt. Das ist wichtig, weil Microsoft damit deutlich macht, dass AI Agents kein isoliertes Feature sind, sondern tiefgreifende Auswirkungen auf Architektur, Sicherheit, Observability und die Organisation von IT-Teams in Unternehmen haben.

Azure

Azure Agentic AI für Cloud-Modernisierung in Branchen

Microsoft betont in einem Branchen-Update, dass Azure zusammen mit Agentic AI regulierten Unternehmen helfen soll, die Cloud-Modernisierung von punktuellen Migrationen hin zu einem kontinuierlichen, stärker automatisierten Prozess weiterzuentwickeln. Das ist wichtig, weil neben Kostensenkungen vor allem AI-Bereitschaft, Resilienz und Compliance zu zentralen Treibern werden – besonders für Branchen mit komplexer Legacy-IT und strengen regulatorischen Vorgaben.

Azure

Fireworks AI auf Azure: Public Preview in Foundry

Microsoft stellt Fireworks AI in der Public Preview auf Azure Foundry bereit und kombiniert damit schnelle Open-Model-Inferenz mit zentralem Enterprise-Management, Governance und einem einheitlichen Azure-Endpunkt. Das ist wichtig, weil Unternehmen Open Models wie DeepSeek V3.2, gpt-oss-120b, Kimi K2.5 und neu MiniMax M2.5 einfacher vom Test in die Produktion bringen können – inklusive serverloser Nutzung und Bring-your-own-weights für angepasste Modelle.

Azure

Azure Copilot Agents für Migration und Modernisierung

Microsoft erweitert Azure Copilot und GitHub Copilot um neue agentenbasierte Funktionen für Migration und Modernisierung, darunter einen Azure Copilot migration agent und einen GitHub Copilot modernization agent, die beide in Public Preview verfügbar sind. Die Neuerungen sollen IT- und Entwicklungsteams dabei helfen, Infrastruktur, Anwendungen, Datenbanken und Code effizienter zu analysieren, zu planen und zu modernisieren – wichtig, weil sie Unternehmen den Weg zu skalierbarer AI-Nutzung und kontinuierlicher Transformation deutlich erleichtern.

Azure

Azure IaaS Resource Center für resiliente Infrastruktur

Microsoft stellt mit dem Azure IaaS Resource Center einen zentralen Einstiegspunkt für Infrastrukturteams vor, der Best Practices, Architekturleitfäden, Demos und Betriebsempfehlungen für Compute, Storage und Networking bündelt. Das ist wichtig, weil Unternehmen ihre Azure-IaaS-Umgebungen damit ganzheitlicher auf Resilienz, Performance und Kosten optimieren können, statt einzelne Dienste isoliert zu betrachten.

Azure

Microsoft Foundry: 327 % ROI laut Forrester-Studie

Eine neue Forrester-TEI-Studie zu Microsoft Foundry kommt zu dem Ergebnis, dass Unternehmen mit der Plattform über drei Jahre einen ROI von 327 % erzielen und ihre Investition bereits nach sechs Monaten amortisieren können. Relevant ist das vor allem für IT-Administratoren und AI-Teams, weil Foundry laut Studie versteckte Kosten durch Infrastruktur-, Governance- und Tooling-Aufwand senkt, Entwickler produktiver macht und gleichzeitig Einsparungen bei redundanten Systemen ermöglicht.