Azure

Azure Storage 2026 : IA, inférence et performance

3 min de lecture

Résumé

Microsoft présente sa feuille de route Azure Storage 2026 comme une réponse à la montée en puissance des usages IA en production, notamment l’inférence continue et les workloads « agentic », avec des améliorations sur le débit, l’évolutivité et l’efficacité opérationnelle. Les annonces clés portent sur des comptes Blob massivement scalables et sur Azure Managed Lustre pour alimenter de grands clusters GPU, ce qui compte autant pour les pipelines IA de bout en bout que pour les applications critiques exigeant de très hautes performances et une faible latence.

Besoin d'aide avec Azure ?Parler à un expert

Introduction : pourquoi c’est important

L’IA passe d’expérimentations ponctuelles à une production en continu—en particulier l’inférence et les workloads autonomes « agentic » qui génèrent des schémas d’accès soutenus et fortement concurrents. La feuille de route 2026 d’Azure Storage vise à permettre des flux de données IA de bout en bout (training → tuning → inference), tout en améliorant les coûts, la simplicité opérationnelle et les performances pour des systèmes traditionnels critiques pour la mission comme SAP et les plateformes de trading à latence ultra-faible.

Quoi de neuf (et ce que Microsoft met en avant)

1) Entraînement à l’échelle frontier : Blob et chemins de données à haut débit

  • Les Blob scaled accounts sont mis en avant comme un moyen de monter en charge sur des centaines d’unités de mise à l’échelle par région, en ciblant des workloads avec des millions d’objets (courant pour les jeux de données d’entraînement/tuning et la gestion des checkpoints/fichiers de modèles).
  • Microsoft indique que des innovations utilisées pour supporter des opérations à l’échelle d’OpenAI deviennent largement disponibles pour les entreprises.

2) Stockage conçu pour le calcul IA : Azure Managed Lustre (AMLFS)

  • Le partenariat d’Azure avec NVIDIA DGX on Azure associe du calcul accéléré à Azure Managed Lustre pour alimenter en continu des flottes de GPU.
  • AMLFS inclut désormais (en preview) la prise en charge de namespaces de 25 PiB et jusqu’à 512 GBps de débit, le positionnant comme une option Lustre managée de tout premier plan pour de grands scénarios de recherche et d’inférence industrielle (par ex. automobile, robotique).

3) Intégrations de l’écosystème IA : des chemins plus rapides des données à l’inférence

  • Une intégration plus poussée est prévue avec des frameworks IA, notamment Microsoft Foundry, Ray/Anyscale et LangChain.
  • L’intégration native d’Azure Blob dans Foundry est présentée comme un moyen de consolider les données d’entreprise dans Foundry IQ pour l’ancrage des connaissances, le fine-tuning et le service de contexte à faible latence—tout en maintenant la gouvernance et la sécurité dans le tenant.

4) Applications cloud-native à l’échelle agentique : stockage bloc + orchestration Kubernetes

  • Microsoft souligne que les agents peuvent générer un ordre de grandeur de requêtes en plus que les applications pilotées par des humains, ce qui met sous pression les couches stockage/base de données.
  • Elastic SAN est décrit comme un composant fondamental pour des architectures de type SaaS, multi-tenant, avec des pools de stockage bloc managés et des garde-fous.
  • Azure Container Storage (ACStor) évolue vers le modèle d’opérateur Kubernetes et l’intention d’open-sourcer la base de code, avec des drivers CSI, afin de simplifier le développement d’applications stateful sur Kubernetes.

5) Prix/performance pour les workloads critiques : SAP, ANF, Ultra Disk

  • Pour SAP HANA, les mises à jour des M-series d’Azure ciblent ~780k IOPS et 16 GB/s de débit pour les performances disque.
  • Azure NetApp Files (ANF) et Azure Premium Files restent des options de stockage partagé clés, avec des améliorations de TCO comme ANF Flexible Service Level et Azure Files Provisioned v2.
  • À venir : le niveau de service Elastic ZRS dans ANF pour une haute disponibilité (HA) zone-redundant avec réplication synchrone entre AZs.
  • Les performances d’Ultra Disk sont mises en avant (latence < 500µs ; jusqu’à 400K IOPS/10 GB/s, et jusqu’à 800K IOPS/14 GB/s avec des VMs Ebsv6).

Impact pour les admins IT et les équipes plateforme

  • Attendez-vous à davantage de focus architectural sur le débit, la concurrence et la localité des données pour les applications orientées inférence et agentic.
  • Les opérateurs Kubernetes et un ACStor potentiellement open source peuvent modifier la façon dont les équipes standardisent les workloads stateful sur AKS.
  • Le choix du stockage devient plus spécifique au workload : Blob pour les datasets/le contexte, Lustre pour les pipelines GPU, Elastic SAN/Ultra Disk pour les besoins transactionnels à très haut IOPS, ANF pour les workloads d’entreprise partagés.

Actions / prochaines étapes

  1. Cartographier les workloads IA par phase (training vs inference vs agentic) et les aligner sur les types de stockage (Blob + AMLFS + bloc/partagé).
  2. Revoir les limites preview d’AMLFS (25 PiB/512 GBps) et valider les goulots d’étranglement des pipelines GPU où Lustre peut aider.
  3. Évaluer Elastic SAN pour du SaaS multi-tenant ou des microservices à forte concurrence nécessitant du stockage bloc mutualisé.
  4. Planifier ANF Elastic ZRS si vous avez besoin de NFS zone-redundant avec des performances constantes pour des applications d’entreprise.
  5. Pour les équipes AKS, suivre les évolutions ACStor operator + open-source afin de réduire la gestion sur mesure du stockage stateful.

Besoin d'aide avec Azure ?

Nos experts peuvent vous aider à implémenter et optimiser vos solutions Microsoft.

Parler à un expert

Restez informé sur les technologies Microsoft

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Articles connexes

Azure

Podcast Microsoft sur l’agentic AI : défis Azure

Microsoft lance « The Shift », une nouvelle série de podcasts Azure consacrée à l’agentic AI, avec huit épisodes explorant des enjeux concrets comme la coordination entre agents, l’accès aux données, le context engineering, la gouvernance et les plateformes comme Postgres, Fabric et OneLake. C’est important pour les équipes IT et architecture, car Microsoft montre que les agents IA deviennent un sujet d’infrastructure d’entreprise à part entière, nécessitant de repenser la conception des systèmes, la sécurité, l’observabilité et les modes de travail.

Azure

Azure et l’IA agentique pour moderniser le cloud

Microsoft met en avant Azure associé à l’IA agentique comme levier de modernisation continue du cloud, en particulier pour les secteurs réglementés freinés par les infrastructures héritées et les exigences de conformité. L’enjeu est important car la migration cloud ne vise plus seulement la réduction des coûts, mais aussi une meilleure résilience, une plus grande agilité opérationnelle et une préparation renforcée à l’adoption de l’IA.

Azure

Fireworks AI sur Microsoft Foundry : inférence IA

Microsoft met Fireworks AI en préversion publique dans Microsoft Foundry afin de fournir une inférence rapide de modèles ouverts via un point de terminaison Azure unique, avec des fonctions de gestion, de gouvernance et d’exploitation adaptées aux entreprises. Cette annonce compte car elle simplifie le passage des tests à la production pour des modèles comme DeepSeek, Kimi, gpt-oss et MiniMax, tout en renforçant la sécurité, la centralisation et la flexibilité grâce au serverless et au BYOW.

Azure

Azure Copilot : agents IA pour migration de code

Microsoft annonce de nouvelles capacités agentiques dans Azure Copilot et GitHub Copilot pour accélérer la modernisation des infrastructures, applications, bases de données et du code. En préversion publique, ces agents IA automatisent l’inventaire, l’évaluation, la planification et la migration, ce qui aide les entreprises à réduire la complexité, mieux prioriser les coûts et passer d’initiatives ponctuelles à une modernisation continue à grande échelle.

Azure

Azure IaaS Resource Center : guides infra résiliente

Microsoft lance l’Azure IaaS Resource Center, un hub centralisé qui regroupe guides, démonstrations, architectures de référence et bonnes pratiques pour concevoir, optimiser et exploiter une infrastructure Azure. Cette annonce compte car elle encourage les équipes à gérer Azure IaaS comme une plateforme cohérente afin d’améliorer la résilience, les performances, la sécurité et la maîtrise des coûts, notamment pour des charges de travail de plus en plus critiques et liées à l’IA.

Azure

Microsoft Foundry : ROI de 327 % selon Forrester

Une étude Forrester sur Microsoft Foundry indique qu’une entreprise type pourrait atteindre 327 % de ROI sur trois ans, avec un retour sur investissement en six mois, grâce à des gains de productivité, des économies d’infrastructure et une réduction du temps consacré à l’assemblage des briques IA. C’est important pour les responsables IT et Azure, car cela renforce l’idée qu’une plateforme d’IA unifiée peut réduire la complexité opérationnelle et accélérer la création de valeur métier à grande échelle.