Azure

Azure Storage 2026: AI 추론·학습·미션 크리티컬 확장

3분 읽기

요약

마이크로소프트는 Azure Storage 2026 로드맵을 통해 AI 학습·추론·에이전트형 워크로드에 맞춘 대규모 스토리지 확장, Azure Managed Lustre의 25PiB/512GBps급 성능, 그리고 Foundry·Ray·LangChain과의 통합 강화를 추진한다고 밝혔습니다. 이는 기업이 초대규모 AI 데이터 파이프라인을 더 빠르고 안전하게 운영하는 동시에, SAP·초저지연 트레이딩 같은 미션 크리티컬 시스템에서도 성능과 운영 효율을 함께 높일 수 있다는 점에서 중요합니다.

Azure 관련 도움이 필요하신가요?전문가와 상담하기

Introduction: why this matters

AI는 가끔의 실험 단계에서 항상 가동되는 프로덕션으로 이동하고 있으며—특히 지속적이고 고동시성(high-concurrency) 액세스 패턴을 유발하는 추론(inference)과 자율 “agentic” 워크로드가 두드러집니다. Azure Storage의 2026 로드맵은 엔드투엔드 AI 데이터 흐름(학습 → 튜닝 → 추론)을 지원하는 데 초점을 맞추는 동시에, SAP 및 초저지연 트레이딩 플랫폼 같은 전통적인 미션 크리티컬 시스템의 비용, 운영 단순성, 성능도 함께 개선하는 것을 목표로 합니다.

What’s new (and what Microsoft is emphasizing)

1) Training at frontier scale: Blob and high-throughput data paths

  • Blob scaled accounts는 리전당 수백 개의 scale unit에 걸친 확장을 가능하게 하는 방식으로 강조되며, 수백만 개의 오브젝트(학습/튜닝 데이터셋과 체크포인트/모델 파일 관리에 흔함)를 다루는 워크로드를 목표로 합니다.
  • Microsoft는 OpenAI 규모의 운영을 지원하기 위해 사용된 혁신이 이제 엔터프라이즈 전반에 보다 폭넓게 제공되고 있다고 언급합니다.

2) Purpose-built storage for AI compute: Azure Managed Lustre (AMLFS)

  • Azure의 NVIDIA DGX on Azure 파트너십은 가속 컴퓨팅과 Azure Managed Lustre를 결합해 GPU 플릿에 데이터를 지속적으로 공급하는 구성을 제공합니다.
  • AMLFS는 이제 25 PiB 네임스페이스에 대한 preview 지원과 최대 512 GBps 처리량을 포함하며, 대규모 연구 및 산업용 추론 시나리오(예: 자동차, 로보틱스)를 위한 최상급 관리형 Lustre 옵션으로 포지셔닝됩니다.

3) AI ecosystem integrations: faster paths from data to inference

  • Microsoft Foundry, Ray/Anyscale, LangChain을 포함한 AI 프레임워크 전반에서 더 심화된 통합이 계획되어 있습니다.
  • Foundry 내 Native Azure Blob 통합은 거버넌스와 보안을 테넌트 내에 유지하면서, 근거 데이터(grounding knowledge), 파인튜닝, 저지연 컨텍스트 서빙을 위해 엔터프라이즈 데이터를 Foundry IQ로 통합하는 데 도움이 되는 것으로 포지셔닝됩니다.

4) Agentic scale cloud-native apps: block storage + Kubernetes orchestration

  • Microsoft는 에이전트가 인간 주도의 앱보다 한 자릿수 이상(10배 수준) 더 많은 쿼리를 생성할 수 있어 스토리지/데이터베이스 계층에 부담을 준다고 강조합니다.
  • Elastic SAN은 관리형 블록 스토리지 풀과 가드레일을 갖춘 SaaS 스타일의 멀티테넌트 아키텍처를 위한 핵심 구성 요소로 설명됩니다.
  • **Azure Container Storage (ACStor)**는 Kubernetes 상에서 상태 저장 앱 개발을 단순화하기 위해 CSI 드라이버와 함께 Kubernetes operator 모델로 방향을 전환하고, 코드 베이스를 오픈 소스화하려는 의도를 함께 제시합니다.

5) Mission-critical price/performance: SAP, ANF, Ultra Disk

  • SAP HANA의 경우 Azure의 M-series 업데이트는 디스크 성능 기준으로 약 780k IOPS16 GB/s 처리량을 목표로 합니다.
  • Azure NetApp Files (ANF)Azure Premium Files는 핵심 공유 스토리지 옵션으로 계속 유지되며, ANF Flexible Service LevelAzure Files Provisioned v2 같은 TCO 개선이 포함됩니다.
  • 예정: ANF의 Elastic ZRS service level로, AZ 간 동기 복제를 통한 zone-redundant HA를 제공.
  • Ultra Disk 성능이 강조됩니다(500µs 미만 지연시간; 최대 400K IOPS/10 GB/s, Ebsv6 VM과 함께 최대 800K IOPS/14 GB/s).

Impact on IT admins and platform teams

  • 추론 중심(inference-heavy) 및 agentic 앱을 위해 처리량, 동시성, 데이터 로컬리티에 대한 아키텍처적 초점이 더 커질 것으로 예상됩니다.
  • Kubernetes operator 및 잠재적인 오픈 소스 ACStor는 팀이 AKS에서 상태 저장 워크로드를 표준화하는 방식에 변화를 줄 수 있습니다.
  • 스토리지 선택은 워크로드에 따라 더 세분화됩니다: 데이터셋/컨텍스트는 Blob, GPU 파이프라인은 Lustre, 고 IOPS 트랜잭션 요구는 Elastic SAN/Ultra Disk, 공유 엔터프라이즈 워크로드는 ANF.

Action items / next steps

  1. AI 워크로드를 단계별로 매핑(학습 vs 추론 vs agentic)하고 스토리지 유형(Blob + AMLFS + block/shared)에 맞춰 정렬합니다.
  2. AMLFS preview 한계(25 PiB/512 GBps)를 검토하고 Lustre가 도움이 될 수 있는 GPU 파이프라인 병목을 검증합니다.
  3. 풀 기반 블록 스토리지가 필요한 멀티테넌트 SaaS 또는 고동시성 마이크로서비스에 대해 Elastic SAN을 평가합니다.
  4. 엔터프라이즈 앱에 대해 일관된 성능의 zone-redundant NFS가 필요하다면 ANF Elastic ZRS를 고려해 계획합니다.
  5. AKS 팀은 맞춤형 상태 저장 스토리지 관리 부담을 줄이기 위해 ACStor operator + 오픈 소스 업데이트를 추적합니다.

Azure 관련 도움이 필요하신가요?

전문가가 Microsoft 솔루션 구현 및 최적화를 도와드립니다.

전문가와 상담하기

Microsoft 기술 최신 정보 받기

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

관련 기사

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.