Azure

Azure Storage 2026: AI-tallennus ja suorituskyky

3 min lukuaika

Yhteenveto

Microsoftin Azure Storage 2026 -tiekartta painottaa AI-työkuormien, erityisesti jatkuvan inferenssin ja agenttipohjaisten sovellusten, tarvitsemia suorituskykyisiä ja skaalautuvia tallennusratkaisuja. Keskeisiä uudistuksia ovat Blob Storage -skaalaus satoihin scale unit -yksiköihin sekä Azure Managed Lustren jopa 25 PiB namespace- ja 512 GBps -läpimenokapasiteetti, mikä on tärkeää, koska se auttaa yrityksiä rakentamaan tehokkaampia, kustannustehokkaampia ja tuotantovalmiita AI- sekä liiketoimintakriittisiä järjestelmiä Azuren päälle.

Tarvitsetko apua Azure-asioissa?Keskustele asiantuntijan kanssa

Johdanto: miksi tämä on tärkeää

AI siirtyy satunnaisesta kokeilusta aina päällä olevaan tuotantoon—erityisesti inferenssiin ja autonomisiin ”agenttityökuormiin”, jotka aiheuttavat jatkuvia, suuren samanaikaisuuden käyttökuvioita. Azure Storage -tiekartta vuodelle 2026 keskittyy mahdollistamaan päästä päähän -AI-datavirtaukset (koulutus → hienosäätö → inferenssi) sekä parantamaan kustannustehokkuutta, operatiivista yksinkertaisuutta ja suorituskykyä perinteisille liiketoimintakriittisille järjestelmille, kuten SAP:lle, ja erittäin pienen latenssin kaupankäyntialustoille.

Mitä uutta (ja mitä Microsoft korostaa)

1) Koulutus frontier-mittakaavassa: Blob ja suuren läpimenon datapolut

  • Blob scaled accounts nostetaan esiin tapana skaalata satoihin scale unit -yksiköihin per region, kohdistuen työkuormiin, joissa on miljoonia objekteja (yleistä koulutus/hienosäätöaineistoissa sekä checkpoint- ja malli-/tiedostohallinnassa).
  • Microsoft toteaa, että OpenAI-mittakaavan operaatioiden tukemiseen kehitetyt innovaatiot tulevat laajemmin yritysten saataville.

2) AI-laskentaan tarkoitettu tallennus: Azure Managed Lustre (AMLFS)

  • Azuren kumppanuus NVIDIA DGX on Azure -ratkaisun kanssa yhdistää kiihdytetyn laskennan ja Azure Managed Lustre -palvelun, jotta GPU-kapasiteetti pysyy syötettynä.
  • AMLFS sisältää nyt preview-tuen 25 PiB -namespaceille ja jopa 512 GBps läpimenon, mikä asemoittaa sen huipputason hallituksi Lustre-vaihtoehdoksi laajoihin tutkimus- ja teollisiin inferenssiskenaarioihin (esim. autoteollisuus, robotiikka).

3) AI-ekosysteemin integraatiot: nopeammat polut datasta inferenssiin

  • Syvempää integraatiota suunnitellaan AI-kehysten välillä, mukaan lukien Microsoft Foundry, Ray/Anyscale ja LangChain.
  • Natiivi Azure Blob -integraatio Foundryssa asemoidaan keinoksi keskittää yritysdata Foundry IQ:hun tiedon ankkurointia, hienosäätöä ja pienen latenssin kontekstin tarjoamista varten—samalla kun hallinta ja tietoturva pysyvät tenantin sisällä.

4) Agenttimittakaavan cloud-native-sovellukset: block storage + Kubernetes-orkestrointi

  • Microsoft korostaa, että agentit voivat tuottaa kertaluokkaa enemmän kyselyitä kuin ihmisten ohjaamat sovellukset, mikä kuormittaa storage-/database-kerroksia.
  • Elastic SAN kuvataan keskeiseksi rakennuspalikaksi SaaS-tyylisiin, multi-tenant-arkkitehtuureihin, joissa on hallitut block storage -poolit ja suojakaiteet.
  • Azure Container Storage (ACStor) -linjaus siirtyy kohti Kubernetes operator -mallia ja aikomusta avata koodipohja open source -muotoon CSI-ajureiden rinnalla, jotta stateful-sovellusten kehitys Kubernetesissa yksinkertaistuu.

5) Liiketoimintakriittinen hinta/suorituskyky: SAP, ANF, Ultra Disk

  • SAP HANA -ympäristöissä Azuren M-series-päivitykset tähtäävät noin 780k IOPS ja 16 GB/s läpimenoon levysuorituskyvyssä.
  • Azure NetApp Files (ANF) ja Azure Premium Files jatkuvat keskeisinä shared storage -vaihtoehtoina, ja TCO-parannuksia tuovat esimerkiksi ANF Flexible Service Level ja Azure Files Provisioned v2.
  • Tulossa: Elastic ZRS service level in ANF zone-redundant-HA:ta varten, synkronisella replikaatiolla AZ:ien välillä.
  • Ultra Disk -suorituskykyä korostetaan (alle 500µs latenssi; jopa 400K IOPS/10 GB/s, ja jopa 800K IOPS/14 GB/s Ebsv6 VM -koneilla).

Vaikutus IT-ylläpitäjille ja alustatiimeille

  • Odota arkkitehtuurissa lisää painotusta läpimenoon, samanaikaisuuteen ja datan sijaintiin inferenssipainotteisissa ja agenttimaisissa sovelluksissa.
  • Kubernetes operator -mallit ja mahdollinen open source -ACStor voivat muuttaa sitä, miten tiimit standardoivat stateful-työkuormia AKS:ssä.
  • Tallennusvalinnoista tulee työkuormakohtaisempia: Blob aineistoille/kontekstille, Lustre GPU-putkistoille, Elastic SAN/Ultra Disk korkean IOPS:n transaktionaalisiin vaatimuksiin, ANF jaettuihin yritystyökuormiin.

Toimenpiteet / seuraavat askeleet

  1. Kartoita AI-työkuormat vaiheittain (koulutus vs inferenssi vs agenttimainen) ja sovita tallennustyyppeihin (Blob + AMLFS + block/shared).
  2. Tarkista AMLFS preview -rajat (25 PiB/512 GBps) ja validoi GPU-putkistojen pullonkaulat, joissa Lustre voi auttaa.
  3. Arvioi Elastic SAN multi-tenant-SaaS:iin tai suuren samanaikaisuuden mikropalveluihin, jotka tarvitsevat poolattua block storagea.
  4. Suunnittele ANF Elastic ZRS -käyttöä, jos tarvitset zone-redundant-NFS:ää ja tasaista suorituskykyä yrityssovelluksille.
  5. AKS-tiimeille: seuraa ACStor operator + open-source -päivityksiä, jotta räätälöidyn stateful storage -hallinnan tarve vähenee.

Tarvitsetko apua Azure-asioissa?

Asiantuntijamme auttavat sinua toteuttamaan ja optimoimaan Microsoft-ratkaisusi.

Keskustele asiantuntijan kanssa

Pysy ajan tasalla Microsoft-teknologioista

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Aiheeseen liittyvät

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.