Azure Storage 2026 para AI: treino, inferência e SAP
Resumo
A Microsoft está a posicionar o Azure Storage para 2026 como base de dados e ficheiros para AI em produção, com novidades focadas em treino, tuning e inferência à escala, incluindo Blob scaled accounts para milhões de objetos e Azure Managed Lustre com preview de namespaces até 25 PiB e 512 GBps de throughput. Isto importa porque responde tanto às exigências de cargas de AI sempre ativas e altamente concorrentes como às necessidades de desempenho, custo e fiabilidade de sistemas críticos tradicionais, como SAP e plataformas de trading.
Introdução: porque isto é importante
A AI está a passar de experimentação ocasional para produção sempre ativa — sobretudo inferência e cargas de trabalho autónomas “agentic” que geram padrões sustentados de acesso com elevada concorrência. O roadmap do Azure Storage para 2026 foca-se em viabilizar fluxos de dados de AI ponta a ponta (treino → tuning → inferência), ao mesmo tempo que melhora custos, simplicidade operacional e desempenho para sistemas tradicionais mission-critical como SAP e plataformas de trading de latência ultra-baixa.
O que há de novo (e o que a Microsoft está a enfatizar)
1) Treino à escala de frontier: Blob e caminhos de dados de alto throughput
- Blob scaled accounts são destacadas como forma de escalar por centenas de scale units por região, visando cargas de trabalho com milhões de objetos (comum em datasets de treino/tuning e na gestão de checkpoints/ficheiros de modelo).
- A Microsoft refere que inovações usadas para suportar operações à escala da OpenAI estão a tornar-se amplamente disponíveis para empresas.
2) Storage concebido para compute de AI: Azure Managed Lustre (AMLFS)
- A parceria do Azure com NVIDIA DGX on Azure combina compute acelerado com Azure Managed Lustre para manter os clusters de GPUs alimentados.
- O AMLFS passa a incluir suporte em preview para namespaces de 25 PiB e até 512 GBps de throughput, posicionando-se como uma opção Lustre gerida de topo para cenários de investigação e inferência industrial de grande escala (por exemplo, automóvel, robótica).
3) Integrações no ecossistema de AI: caminhos mais rápidos dos dados para a inferência
- Está prevista uma integração mais profunda com frameworks de AI, incluindo Microsoft Foundry, Ray/Anyscale e LangChain.
- A integração nativa de Azure Blob no Foundry é apresentada como forma de ajudar a consolidar dados empresariais no Foundry IQ para grounding de conhecimento, fine-tuning e serving de contexto de baixa latência — mantendo governação e segurança dentro do tenant.
4) Apps cloud-native à escala agentic: storage de blocos + orquestração Kubernetes
- A Microsoft aponta que agentes podem gerar uma ordem de grandeza mais queries do que apps conduzidas por humanos, pressionando as camadas de storage/base de dados.
- Elastic SAN é descrito como um bloco fundamental para arquiteturas estilo SaaS, multi-tenant, com pools de storage de blocos geridos e guardrails.
- A direção do Azure Container Storage (ACStor) evolui para o modelo de operator do Kubernetes e para a intenção de open source do code base, a par de drivers CSI, para simplificar o desenvolvimento de apps stateful em Kubernetes.
5) Preço/desempenho mission-critical: SAP, ANF, Ultra Disk
- Para SAP HANA, as atualizações das M-series do Azure apontam para ~780k IOPS e 16 GB/s de throughput em desempenho de disco.
- Azure NetApp Files (ANF) e Azure Premium Files mantêm-se como opções centrais de storage partilhado, com melhorias de TCO como ANF Flexible Service Level e Azure Files Provisioned v2.
- Em breve: Elastic ZRS service level no ANF para HA com redundância por zona e replicação síncrona entre AZs.
- O desempenho do Ultra Disk é enfatizado (latência abaixo de 500µs; até 400K IOPS/10 GB/s, e até 800K IOPS/14 GB/s com VMs Ebsv6).
Impacto para admins de IT e equipas de plataforma
- Espera-se maior foco arquitetural em throughput, concorrência e localidade de dados para apps com inferência intensiva e agentic.
- Operators de Kubernetes e um potencial ACStor open-source podem alterar a forma como as equipas standardizam workloads stateful no AKS.
- A escolha de storage torna-se mais específica por workload: Blob para datasets/contexto, Lustre para pipelines de GPU, Elastic SAN/Ultra Disk para exigências transacionais de alto IOPS, ANF para workloads empresariais partilhados.
Ações / próximos passos
- Mapear workloads de AI por fase (treino vs inferência vs agentic) e alinhar com tipos de storage (Blob + AMLFS + block/shared).
- Rever limites de preview do AMLFS (25 PiB/512 GBps) e validar bottlenecks em pipelines de GPU onde Lustre pode ajudar.
- Avaliar Elastic SAN para SaaS multi-tenant ou microservices de elevada concorrência que necessitem de storage de blocos em pool.
- Planear para ANF Elastic ZRS se precisar de NFS com redundância por zona e desempenho consistente para apps empresariais.
- Para equipas de AKS, acompanhar updates de ACStor operator + open-source para reduzir gestão bespoke de storage stateful.
Precisa de ajuda com Azure?
Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.
Fale com um especialistaFique atualizado sobre as tecnologias Microsoft