Fireworks AI op Azure in Microsoft Foundry Preview
Samenvatting
Microsoft heeft Fireworks AI in public preview toegevoegd aan Microsoft Foundry op Azure, waarmee organisaties open modellen via één Azure-endpoint kunnen evalueren, implementeren en beheren met enterprise-governance. Dit is belangrijk omdat het snelle, schaalbare inference voor modellen als DeepSeek V3.2, OpenAI gpt-oss-120b en MiniMax M2.5 combineert met flexibele opties zoals serverless en BYOW, waardoor de stap van experiment naar productie eenvoudiger wordt.
Fireworks AI arriveert op Microsoft Foundry
Inleiding
Organisaties die open modellen adopteren, willen meer dan alleen ruwe prestaties—ze hebben een praktische manier nodig om die modellen veilig uit te voeren, consistent te beheren en van testen naar productie te gaan zonder meerdere tools aan elkaar te hoeven koppelen. Microsofts nieuwe public preview van Fireworks AI op Microsoft Foundry is bedoeld om dat probleem op te lossen door snelle open-model inference te combineren met Azure’s enterprise management- en governance-mogelijkheden.
Wat is er nieuw
Microsoft Foundry bevat nu Fireworks AI als public preview-optie voor open model inference in Azure. De aankondiging positioneert Foundry als een gecentraliseerd control plane voor de volledige AI-levenscyclus, inclusief modelevaluatie, implementatie, aanpassing en operations.
Belangrijke updates zijn onder meer:
- Public preview van Fireworks AI op Microsoft Foundry voor high-throughput, low-latency open model inference
- Toegang tot ondersteunde open modellen via één single Azure endpoint in Foundry
- Ondersteuning voor deze modellen op dit moment:
- DeepSeek V3.2
- OpenAI gpt-oss-120b
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.5 is nieuw toegevoegd aan Foundry met serverless support
- Bring-your-own-weights (BYOW)-ondersteuning voor gequantiseerde of fine-tuned modellen die elders zijn getraind
- Flexibiliteit in implementatie met:
- Serverless, pay-per-token inference voor snelle experimentatie
- Provisioned Throughput Units (PTUs) voor voorspelbare productieprestaties
Microsoft benadrukte ook de grootschalige inference-mogelijkheden van Fireworks AI, waaronder tokenverwerking op internetschaal en benchmark-toonaangevende throughput voor open modellen.
Waarom dit belangrijk is voor IT- en platformteams
Voor Azure-beheerders, AI-platformteams en enterprise architects vermindert dit de operationele complexiteit van het ondersteunen van open modellen. In plaats van afzonderlijke serving stacks of governance-frameworks op te bouwen, kunnen teams Foundry gebruiken als één omgeving voor modeltoegang, implementatie, observability en beleidscontrole.
Dit is vooral relevant voor organisaties die:
- Willen standaardiseren op open modellen zonder vendor lock-in
- Custom fine-tuned modellen willen ondersteunen terwijl ze een consistent serving platform behouden
- Kosten en prestaties willen balanceren tussen experimentele en productie-workloads
- Enterprise governance- en security-controls willen toepassen op AI-implementaties in Azure
Aanbevolen volgende stappen
Beheerders en AI-teams zouden het volgende moeten doen:
- Bekijk de Microsoft Foundry model catalog voor door Fireworks gehoste modellen.
- Evalueer of serverless of PTU-based deployments het beste aansluiten op de workloadvereisten.
- Test BYOW-scenario’s als uw organisatie al fine-tuned of gequantiseerde open modellen heeft.
- Valideer governance-, observability- en operationele vereisten vóór uitrol naar productie.
- Volg aanvullende richtlijnen van Microsoft over modelaanpassing en lifecycle management in Foundry.
Fireworks AI op Microsoft Foundry biedt Azure-klanten een sterkere route om open modellen op schaal operationeel te maken—zonder concessies te doen aan prestaties, flexibiliteit of enterprise control.
Hulp nodig met Azure?
Onze experts helpen u bij het implementeren en optimaliseren van uw Microsoft-oplossingen.
Praat met een expertBlijf op de hoogte van Microsoft-technologieën