Fireworks AI auf Azure: Public Preview in Foundry
Zusammenfassung
Microsoft stellt Fireworks AI in der Public Preview auf Azure Foundry bereit und kombiniert damit schnelle Open-Model-Inferenz mit zentralem Enterprise-Management, Governance und einem einheitlichen Azure-Endpunkt. Das ist wichtig, weil Unternehmen Open Models wie DeepSeek V3.2, gpt-oss-120b, Kimi K2.5 und neu MiniMax M2.5 einfacher vom Test in die Produktion bringen können – inklusive serverloser Nutzung und Bring-your-own-weights für angepasste Modelle.
Audio-Zusammenfassung
Fireworks AI kommt zu Microsoft Foundry
Einführung
Unternehmen, die Open Models einführen, benötigen mehr als nur rohe Leistung — sie brauchen einen praktikablen Weg, diese Modelle sicher auszuführen, konsistent zu verwalten und ohne das Zusammensetzen mehrerer Tools vom Testen in die Produktion zu gelangen. Microsofts neue Public Preview von Fireworks AI auf Microsoft Foundry zielt darauf ab, dieses Problem zu lösen, indem schnelle Open-Model-Inference mit den Enterprise-Management- und Governance-Funktionen von Azure kombiniert wird.
Was ist neu
Microsoft Foundry umfasst jetzt Fireworks AI als Public-Preview-Option für Open Model Inference in Azure. Die Ankündigung positioniert Foundry als zentrale Control Plane für den gesamten AI-Lifecycle, einschließlich Model Evaluation, Deployment, Anpassung und Betrieb.
Zu den wichtigsten Neuerungen gehören:
- Public Preview von Fireworks AI auf Microsoft Foundry für Open Model Inference mit hohem Durchsatz und geringer Latenz
- Zugriff auf unterstützte Open Models über einen einzigen Azure-Endpunkt in Foundry
- Unterstützung für diese Modelle heute:
- DeepSeek V3.2
- OpenAI gpt-oss-120b
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.5 wurde Foundry neu hinzugefügt, mit serverloser Unterstützung
- Bring-your-own-weights (BYOW)-Unterstützung für quantisierte oder feinabgestimmte Modelle, die anderswo trainiert wurden
- Flexible Bereitstellung mit:
- Serverlose, Pay-per-Token-Inference für schnelles Experimentieren
- Provisioned Throughput Units (PTUs) für vorhersehbare Produktionsleistung
Microsoft hob außerdem die Large-Scale-Inference-Fähigkeiten von Fireworks AI hervor, darunter Token-Verarbeitung im Internet-Maßstab und benchmarkführenden Durchsatz für Open Models.
Warum das für IT- und Plattformteams wichtig ist
Für Azure-Administratoren, AI-Plattformteams und Enterprise-Architekten reduziert dies die operative Komplexität bei der Unterstützung von Open Models. Anstatt separate Serving-Stacks oder Governance-Frameworks aufzubauen, können Teams Foundry als eine einzige Umgebung für Model Access, Deployment, Observability und Richtlinienkontrolle nutzen.
Dies ist besonders relevant für Unternehmen, die:
- Open Models standardisieren möchten, ohne Vendor Lock-in
- Individuell feinabgestimmte Modelle unterstützen möchten und dabei eine konsistente Serving-Plattform beibehalten wollen
- Kosten und Leistung über Experimentier- und Produktions-Workloads hinweg ausbalancieren möchten
- Enterprise-Governance- und Sicherheitskontrollen auf AI-Bereitstellungen in Azure anwenden möchten
Empfohlene nächste Schritte
Administratoren und AI-Teams sollten:
- Den Microsoft Foundry Model Catalog für von Fireworks gehostete Modelle prüfen.
- Bewerten, ob serverlose oder PTU-basierte Deployments am besten zu den Workload-Anforderungen passen.
- BYOW-Szenarien testen, wenn Ihre Organisation bereits feinabgestimmte oder quantisierte Open Models hat.
- Governance-, Observability- und Betriebsanforderungen vor dem Rollout in die Produktion validieren.
- Microsofts weitere Leitlinien zur Model-Anpassung und zum Lifecycle-Management in Foundry verfolgen.
Fireworks AI auf Microsoft Foundry bietet Azure-Kunden einen stärkeren Weg, Open Models im großen Maßstab zu operationalisieren — ohne Abstriche bei Leistung, Flexibilität oder Enterprise-Kontrolle.
Brauchen Sie Hilfe mit Azure?
Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.
Mit einem Experten sprechenBleiben Sie über Microsoft-Technologien auf dem Laufenden