Azure

Azure-datasentre: superledere kan øke AI-kraft

3 min lesing

Sammendrag

Microsoft undersøker høytemperatur-superledere (HTS) som en ny måte å levere langt mer strøm i Azure-datasentre, med nesten null motstand, mindre kabling og lavere energitap. Dette er viktig fordi AI-arbeidslaster øker effektbehovet raskt, og HTS kan gjøre det mulig å øke beregningstettheten og kapasiteten uten like store utvidelser av dagens fysiske kraftinfrastruktur, forutsatt at skalerbar kryogen kjøling lykkes.

Trenger du hjelp med Azure?Snakk med en ekspert

Introduksjon: hvorfor dette betyr noe

AI- og datatunge arbeidslaster presser datasentre inn i en ny kraftæra—der elektrisk kapasitet, ikke gulvareal, ofte er den viktigste begrensningen. I et nylig Azure-blogginnlegg delte Microsoft hvordan de undersøker høytemperatur-superledere (HTS) for å modernisere kraftleveransen i og rundt datasentre, forbedre effektiviteten og muliggjøre høyere beregningstetthet uten en tilsvarende utvidelse av den fysiske kraftinfrastrukturen.

Hva er nytt

HTS-kabler: «tapfri» kraftleveranse i datasenterskala

Microsoft fremhever HTS som et paradigmeskifte sammenlignet med tradisjonelle kobber-/aluminiumledere:

  • Nær null elektrisk motstand når de kjøles ned, noe som reduserer overføringstap og varmeutvikling.
  • Mindre og lettere kabling for samme effektleveranse, som potensielt kan redusere kabelstørrelsen med en størrelsesorden i prototyper på rack-nivå.
  • Redusert spenningsfall over avstand, som muliggjør mer fleksible anleggsutforminger og distribusjonstopologier.

Kjøling er den muliggjørende komponenten

HTS krever kryogene driftstemperaturer, så en sentral arkitekturkomponent er skalerbare kjølesystemer med høy tilgjengelighet designet for driftsstabilitet på datasenternivå. Microsoft posisjonerer kjøling som avgjørende for å gjøre HTS praktisk i cloud-skala.

Kapasitet og tetthet uten de tradisjonelle avveiningene

Datasentre konsentrerer svært store elektriske laster i kompakte fotavtrykk. Med konvensjonelle ledere møter operatører ofte avveininger som:

  • å utvide transformatorstasjoner og tilførsler,
  • å redusere rack-tetthet,
  • eller å bremse veksten på lokasjonen.

Microsofts syn er at HTS kan bryte denne avveiningen ved å øke elektrisk tetthet innenfor samme fotavtrykk—og dermed støtte kraftbehovene i AI-æraen samtidig som anleggene holdes kompakte.

Bedre resultater for strømnett og lokalsamfunn

Utenfor datasentergrensen påpeker Microsoft at HTS-overføringslinjer kan:

  • redusere behovet for fysisk trasé (mindre grøfter; færre inngripende luftlinjer),
  • forbedre nettstabilitet gjennom potensial for feilstrømbegrensning (fault-current limiting),
  • levere samme effekt ved lavere spenning, noe som kan bidra til å redusere etableringsbegrensninger og forstyrrelser i lokalsamfunn.

Konsekvenser for IT-administratorer og cloud-kunder

Selv om HTS primært er en teknologi for bygg/anlegg og strømnett, kan den gi ringvirkninger for IT:

  • Raskere kapasitetsutvidelse kan bety raskere tilgjengelighet av AI-beregning med høy tetthet i flere regioner.
  • Høyere effektleveranse per rack støtter tettere utrullinger og potensielt bedre ytelse per fotavtrykk.
  • Bærekraft og lokalitet: lavere tap og mindre infrastruktur kan støtte bærekraftsmål og gjøre det enklere å utvide nær befolkningssentre.

Tiltak / neste steg

  • Følg med på Azure-/Microsoft-oppdateringer om neste generasjons datasenterarkitekturer (kraft, nettverk, kjøling) hvis veikartet ditt avhenger av AI med høy tetthet.
  • For organisasjoner som planlegger store AI-utrullinger: ta kontakt med Microsoft-kontaktteamet ditt om regional kapasitetsplanlegging og tidslinjer.
  • Hvis du drifter colocation- eller on-prem datasentre, diskuter med ingeniørteam om HTS-relaterte tilnærminger (eller nærliggende innovasjoner) kan påvirke fremtidig anleggsdesign, strategier for kraftdistribusjon eller planlegging av nettilknytning.

Microsoft rammer inn HTS som en del av et bredere skifte—sammen med fremskritt innen nettverk og kjøling—for å gjøre datasenterinfrastruktur skalerbar for AI-æraen, med fordeler som spenner over effektivitet, kapasitet og påvirkning på lokalsamfunn.

Trenger du hjelp med Azure?

Våre eksperter kan hjelpe deg med å implementere og optimalisere dine Microsoft-løsninger.

Snakk med en ekspert

Hold deg oppdatert om Microsoft-teknologier

Azuredatacentershigh-temperature superconductorsAI infrastructuresustainability

Relaterte innlegg

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.