Fireworks AI i Microsoft Foundry på Azure i preview
Resumé
Microsoft har lanceret Fireworks AI i offentlig preview på Microsoft Foundry i Azure, så virksomheder kan køre åbne modeller med høj throughput og lav latenstid via ét samlet Azure-endpoint. Det er vigtigt, fordi det gør det lettere at gå fra eksperimenter til produktion med bedre enterprise-governance, fleksible deployments som serverless/pay-per-token og mulighed for at medbringe egne finjusterede modelvægte.
Fireworks AI ankommer til Microsoft Foundry
Introduktion
Organisationer, der tager åbne modeller i brug, ønsker mere end blot rå ydeevne — de har brug for en praktisk måde at køre disse modeller sikkert på, styre dem ensartet og gå fra test til produktion uden at skulle sammenstykke flere værktøjer. Microsofts nye offentlige forhåndsversion af Fireworks AI på Microsoft Foundry har til formål at løse dette problem ved at kombinere hurtig inferens for åbne modeller med Azures funktioner til enterprise-administration og governance.
Hvad er nyt
Microsoft Foundry inkluderer nu Fireworks AI som en offentlig forhåndsversion til inferens af åbne modeller i Azure. Annonceringen positionerer Foundry som et centraliseret kontrolplan for hele AI-livscyklussen, herunder modelevaluering, implementering, tilpasning og drift.
Vigtige opdateringer omfatter:
- Offentlig forhåndsversion af Fireworks AI på Microsoft Foundry til inferens af åbne modeller med høj throughput og lav latenstid
- Adgang til understøttede åbne modeller via et enkelt Azure-endpoint i Foundry
- Understøttelse af disse modeller i dag:
- DeepSeek V3.2
- OpenAI gpt-oss-120b
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.5 er netop tilføjet til Foundry med serverless support
- Understøttelse af bring-your-own-weights (BYOW) til kvantiserede eller finjusterede modeller, der er trænet andre steder
- Fleksibel implementering med:
- Serverless, pay-per-token inferens til hurtig eksperimentering
- Provisioned Throughput Units (PTUs) til forudsigelig produktionsydeevne
Microsoft fremhævede også Fireworks AI’s inferensfunktioner i stor skala, herunder tokenbehandling i internet-skala og benchmark-førende throughput for åbne modeller.
Hvorfor dette er vigtigt for IT- og platformteams
For Azure-administratorer, AI-platformteams og enterprise-arkitekter reducerer dette den operationelle kompleksitet ved at understøtte åbne modeller. I stedet for at opbygge separate serving-stacks eller governance-rammer kan teams bruge Foundry som ét samlet miljø til modeladgang, implementering, observability og policy-kontrol.
Dette er især relevant for organisationer, der ønsker at:
- Standardisere på åbne modeller uden vendor lock-in
- Understøtte tilpassede finjusterede modeller og samtidig bevare en ensartet serving-platform
- Balancere omkostninger og ydeevne på tværs af eksperimentering og produktionsworkloads
- Anvende enterprise governance- og sikkerhedskontroller på AI-implementeringer i Azure
Anbefalede næste skridt
Administratorer og AI-teams bør:
- Gennemgå Microsoft Foundry modelkataloget for modeller hostet af Fireworks.
- Evaluere, om serverless eller PTU-baserede implementeringer passer bedst til workload-kravene.
- Teste BYOW-scenarier, hvis din organisation allerede har finjusterede eller kvantiserede åbne modeller.
- Validere krav til governance, observability og drift før udrulning til produktion.
- Følge Microsofts yderligere vejledning om modeltilpasning og lifecycle management i Foundry.
Fireworks AI på Microsoft Foundry giver Azure-kunder en stærkere vej til at operationalisere åbne modeller i stor skala — uden at gå på kompromis med ydeevne, fleksibilitet eller enterprise-kontrol.
Brug for hjælp med Azure?
Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.
Tal med en ekspertHold dig opdateret om Microsoft-teknologier