Azure

Azure Storage 2026 para AI: treino, inferência e SAP

3 min de leitura

Resumo

A Microsoft está a posicionar o Azure Storage para 2026 como base de dados e ficheiros para AI em produção, com novidades focadas em treino, tuning e inferência à escala, incluindo Blob scaled accounts para milhões de objetos e Azure Managed Lustre com preview de namespaces até 25 PiB e 512 GBps de throughput. Isto importa porque responde tanto às exigências de cargas de AI sempre ativas e altamente concorrentes como às necessidades de desempenho, custo e fiabilidade de sistemas críticos tradicionais, como SAP e plataformas de trading.

Precisa de ajuda com Azure?Fale com um especialista

Introdução: porque isto é importante

A AI está a passar de experimentação ocasional para produção sempre ativa — sobretudo inferência e cargas de trabalho autónomas “agentic” que geram padrões sustentados de acesso com elevada concorrência. O roadmap do Azure Storage para 2026 foca-se em viabilizar fluxos de dados de AI ponta a ponta (treino → tuning → inferência), ao mesmo tempo que melhora custos, simplicidade operacional e desempenho para sistemas tradicionais mission-critical como SAP e plataformas de trading de latência ultra-baixa.

O que há de novo (e o que a Microsoft está a enfatizar)

1) Treino à escala de frontier: Blob e caminhos de dados de alto throughput

  • Blob scaled accounts são destacadas como forma de escalar por centenas de scale units por região, visando cargas de trabalho com milhões de objetos (comum em datasets de treino/tuning e na gestão de checkpoints/ficheiros de modelo).
  • A Microsoft refere que inovações usadas para suportar operações à escala da OpenAI estão a tornar-se amplamente disponíveis para empresas.

2) Storage concebido para compute de AI: Azure Managed Lustre (AMLFS)

  • A parceria do Azure com NVIDIA DGX on Azure combina compute acelerado com Azure Managed Lustre para manter os clusters de GPUs alimentados.
  • O AMLFS passa a incluir suporte em preview para namespaces de 25 PiB e até 512 GBps de throughput, posicionando-se como uma opção Lustre gerida de topo para cenários de investigação e inferência industrial de grande escala (por exemplo, automóvel, robótica).

3) Integrações no ecossistema de AI: caminhos mais rápidos dos dados para a inferência

  • Está prevista uma integração mais profunda com frameworks de AI, incluindo Microsoft Foundry, Ray/Anyscale e LangChain.
  • A integração nativa de Azure Blob no Foundry é apresentada como forma de ajudar a consolidar dados empresariais no Foundry IQ para grounding de conhecimento, fine-tuning e serving de contexto de baixa latência — mantendo governação e segurança dentro do tenant.

4) Apps cloud-native à escala agentic: storage de blocos + orquestração Kubernetes

  • A Microsoft aponta que agentes podem gerar uma ordem de grandeza mais queries do que apps conduzidas por humanos, pressionando as camadas de storage/base de dados.
  • Elastic SAN é descrito como um bloco fundamental para arquiteturas estilo SaaS, multi-tenant, com pools de storage de blocos geridos e guardrails.
  • A direção do Azure Container Storage (ACStor) evolui para o modelo de operator do Kubernetes e para a intenção de open source do code base, a par de drivers CSI, para simplificar o desenvolvimento de apps stateful em Kubernetes.

5) Preço/desempenho mission-critical: SAP, ANF, Ultra Disk

  • Para SAP HANA, as atualizações das M-series do Azure apontam para ~780k IOPS e 16 GB/s de throughput em desempenho de disco.
  • Azure NetApp Files (ANF) e Azure Premium Files mantêm-se como opções centrais de storage partilhado, com melhorias de TCO como ANF Flexible Service Level e Azure Files Provisioned v2.
  • Em breve: Elastic ZRS service level no ANF para HA com redundância por zona e replicação síncrona entre AZs.
  • O desempenho do Ultra Disk é enfatizado (latência abaixo de 500µs; até 400K IOPS/10 GB/s, e até 800K IOPS/14 GB/s com VMs Ebsv6).

Impacto para admins de IT e equipas de plataforma

  • Espera-se maior foco arquitetural em throughput, concorrência e localidade de dados para apps com inferência intensiva e agentic.
  • Operators de Kubernetes e um potencial ACStor open-source podem alterar a forma como as equipas standardizam workloads stateful no AKS.
  • A escolha de storage torna-se mais específica por workload: Blob para datasets/contexto, Lustre para pipelines de GPU, Elastic SAN/Ultra Disk para exigências transacionais de alto IOPS, ANF para workloads empresariais partilhados.

Ações / próximos passos

  1. Mapear workloads de AI por fase (treino vs inferência vs agentic) e alinhar com tipos de storage (Blob + AMLFS + block/shared).
  2. Rever limites de preview do AMLFS (25 PiB/512 GBps) e validar bottlenecks em pipelines de GPU onde Lustre pode ajudar.
  3. Avaliar Elastic SAN para SaaS multi-tenant ou microservices de elevada concorrência que necessitem de storage de blocos em pool.
  4. Planear para ANF Elastic ZRS se precisar de NFS com redundância por zona e desempenho consistente para apps empresariais.
  5. Para equipas de AKS, acompanhar updates de ACStor operator + open-source para reduzir gestão bespoke de storage stateful.

Precisa de ajuda com Azure?

Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.

Fale com um especialista

Fique atualizado sobre as tecnologias Microsoft

Azure StorageAzure Blob StorageAzure Managed LustreAKSElastic SAN

Posts relacionados

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.