Azure

Fireworks AI auf Azure: Public Preview in Foundry

3 Min. Lesezeit

Zusammenfassung

Microsoft stellt Fireworks AI in der Public Preview auf Azure Foundry bereit und kombiniert damit schnelle Open-Model-Inferenz mit zentralem Enterprise-Management, Governance und einem einheitlichen Azure-Endpunkt. Das ist wichtig, weil Unternehmen Open Models wie DeepSeek V3.2, gpt-oss-120b, Kimi K2.5 und neu MiniMax M2.5 einfacher vom Test in die Produktion bringen können – inklusive serverloser Nutzung und Bring-your-own-weights für angepasste Modelle.

Audio-Zusammenfassung

0:00--:--
Brauchen Sie Hilfe mit Azure?Mit einem Experten sprechen

Fireworks AI kommt zu Microsoft Foundry

Einführung

Unternehmen, die Open Models einführen, benötigen mehr als nur rohe Leistung — sie brauchen einen praktikablen Weg, diese Modelle sicher auszuführen, konsistent zu verwalten und ohne das Zusammensetzen mehrerer Tools vom Testen in die Produktion zu gelangen. Microsofts neue Public Preview von Fireworks AI auf Microsoft Foundry zielt darauf ab, dieses Problem zu lösen, indem schnelle Open-Model-Inference mit den Enterprise-Management- und Governance-Funktionen von Azure kombiniert wird.

Was ist neu

Microsoft Foundry umfasst jetzt Fireworks AI als Public-Preview-Option für Open Model Inference in Azure. Die Ankündigung positioniert Foundry als zentrale Control Plane für den gesamten AI-Lifecycle, einschließlich Model Evaluation, Deployment, Anpassung und Betrieb.

Zu den wichtigsten Neuerungen gehören:

  • Public Preview von Fireworks AI auf Microsoft Foundry für Open Model Inference mit hohem Durchsatz und geringer Latenz
  • Zugriff auf unterstützte Open Models über einen einzigen Azure-Endpunkt in Foundry
  • Unterstützung für diese Modelle heute:
    • DeepSeek V3.2
    • OpenAI gpt-oss-120b
    • Kimi K2.5
    • MiniMax M2.5
  • MiniMax M2.5 wurde Foundry neu hinzugefügt, mit serverloser Unterstützung
  • Bring-your-own-weights (BYOW)-Unterstützung für quantisierte oder feinabgestimmte Modelle, die anderswo trainiert wurden
  • Flexible Bereitstellung mit:
    • Serverlose, Pay-per-Token-Inference für schnelles Experimentieren
    • Provisioned Throughput Units (PTUs) für vorhersehbare Produktionsleistung

Microsoft hob außerdem die Large-Scale-Inference-Fähigkeiten von Fireworks AI hervor, darunter Token-Verarbeitung im Internet-Maßstab und benchmarkführenden Durchsatz für Open Models.

Warum das für IT- und Plattformteams wichtig ist

Für Azure-Administratoren, AI-Plattformteams und Enterprise-Architekten reduziert dies die operative Komplexität bei der Unterstützung von Open Models. Anstatt separate Serving-Stacks oder Governance-Frameworks aufzubauen, können Teams Foundry als eine einzige Umgebung für Model Access, Deployment, Observability und Richtlinienkontrolle nutzen.

Dies ist besonders relevant für Unternehmen, die:

  • Open Models standardisieren möchten, ohne Vendor Lock-in
  • Individuell feinabgestimmte Modelle unterstützen möchten und dabei eine konsistente Serving-Plattform beibehalten wollen
  • Kosten und Leistung über Experimentier- und Produktions-Workloads hinweg ausbalancieren möchten
  • Enterprise-Governance- und Sicherheitskontrollen auf AI-Bereitstellungen in Azure anwenden möchten

Empfohlene nächste Schritte

Administratoren und AI-Teams sollten:

  1. Den Microsoft Foundry Model Catalog für von Fireworks gehostete Modelle prüfen.
  2. Bewerten, ob serverlose oder PTU-basierte Deployments am besten zu den Workload-Anforderungen passen.
  3. BYOW-Szenarien testen, wenn Ihre Organisation bereits feinabgestimmte oder quantisierte Open Models hat.
  4. Governance-, Observability- und Betriebsanforderungen vor dem Rollout in die Produktion validieren.
  5. Microsofts weitere Leitlinien zur Model-Anpassung und zum Lifecycle-Management in Foundry verfolgen.

Fireworks AI auf Microsoft Foundry bietet Azure-Kunden einen stärkeren Weg, Open Models im großen Maßstab zu operationalisieren — ohne Abstriche bei Leistung, Flexibilität oder Enterprise-Kontrolle.

Brauchen Sie Hilfe mit Azure?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

AzureMicrosoft FoundryFireworks AIopen modelsAI inference

Verwandte Beiträge

Azure

Microsoft Podcast zu Agentic AI: The Shift gestartet

Microsoft startet mit „The Shift“ eine neue Podcast-Reihe, die sich in acht Folgen auf Agentic AI konzentriert und Themen wie Datenzugriff, Multi-Agent-Orchestrierung, Context Engineering, Plattformen wie Postgres, Fabric und OneLake sowie Governance behandelt. Das ist wichtig, weil Microsoft damit deutlich macht, dass AI Agents kein isoliertes Feature sind, sondern tiefgreifende Auswirkungen auf Architektur, Sicherheit, Observability und die Organisation von IT-Teams in Unternehmen haben.

Azure

Azure Agentic AI für Cloud-Modernisierung in Branchen

Microsoft betont in einem Branchen-Update, dass Azure zusammen mit Agentic AI regulierten Unternehmen helfen soll, die Cloud-Modernisierung von punktuellen Migrationen hin zu einem kontinuierlichen, stärker automatisierten Prozess weiterzuentwickeln. Das ist wichtig, weil neben Kostensenkungen vor allem AI-Bereitschaft, Resilienz und Compliance zu zentralen Treibern werden – besonders für Branchen mit komplexer Legacy-IT und strengen regulatorischen Vorgaben.

Azure

Azure Copilot Agents für Migration und Modernisierung

Microsoft erweitert Azure Copilot und GitHub Copilot um neue agentenbasierte Funktionen für Migration und Modernisierung, darunter einen Azure Copilot migration agent und einen GitHub Copilot modernization agent, die beide in Public Preview verfügbar sind. Die Neuerungen sollen IT- und Entwicklungsteams dabei helfen, Infrastruktur, Anwendungen, Datenbanken und Code effizienter zu analysieren, zu planen und zu modernisieren – wichtig, weil sie Unternehmen den Weg zu skalierbarer AI-Nutzung und kontinuierlicher Transformation deutlich erleichtern.

Azure

Azure IaaS Resource Center für resiliente Infrastruktur

Microsoft stellt mit dem Azure IaaS Resource Center einen zentralen Einstiegspunkt für Infrastrukturteams vor, der Best Practices, Architekturleitfäden, Demos und Betriebsempfehlungen für Compute, Storage und Networking bündelt. Das ist wichtig, weil Unternehmen ihre Azure-IaaS-Umgebungen damit ganzheitlicher auf Resilienz, Performance und Kosten optimieren können, statt einzelne Dienste isoliert zu betrachten.

Azure

Microsoft Foundry: 327 % ROI laut Forrester-Studie

Eine neue Forrester-TEI-Studie zu Microsoft Foundry kommt zu dem Ergebnis, dass Unternehmen mit der Plattform über drei Jahre einen ROI von 327 % erzielen und ihre Investition bereits nach sechs Monaten amortisieren können. Relevant ist das vor allem für IT-Administratoren und AI-Teams, weil Foundry laut Studie versteckte Kosten durch Infrastruktur-, Governance- und Tooling-Aufwand senkt, Entwickler produktiver macht und gleichzeitig Einsparungen bei redundanten Systemen ermöglicht.

Azure

Microsoft Foundry mit GPT-5.4 für Enterprise-AI

Microsoft bringt GPT-5.4 in Microsoft Foundry und positioniert das Modell klar für produktionsreife Enterprise-AI statt nur für Experimente. Wichtig ist das vor allem wegen verbesserter Zuverlässigkeit in langen, mehrstufigen Workflows, besserer Tool-Nutzung, geringerer Latenz und konsistenteren Ergebnissen – also genau den Anforderungen, die Unternehmen beim Aufbau skalierbarer KI-Agenten haben. Zudem ergänzt Microsoft das Angebot mit GPT-5.4 Pro für anspruchsvollere analytische Aufgaben.