Fireworks AI sur Microsoft Foundry : inférence IA
Résumé
Microsoft met Fireworks AI en préversion publique dans Microsoft Foundry afin de fournir une inférence rapide de modèles ouverts via un point de terminaison Azure unique, avec des fonctions de gestion, de gouvernance et d’exploitation adaptées aux entreprises. Cette annonce compte car elle simplifie le passage des tests à la production pour des modèles comme DeepSeek, Kimi, gpt-oss et MiniMax, tout en renforçant la sécurité, la centralisation et la flexibilité grâce au serverless et au BYOW.
Fireworks AI arrive sur Microsoft Foundry
Introduction
Les organisations qui adoptent des modèles ouverts recherchent plus que de simples performances brutes : elles ont besoin d’un moyen pratique d’exécuter ces modèles de manière sécurisée, de les gouverner de façon cohérente et de passer des tests à la production sans devoir assembler plusieurs outils. La nouvelle préversion publique de Fireworks AI sur Microsoft Foundry vise à résoudre ce problème en combinant une inférence rapide de modèles ouverts avec les capacités de gestion et de gouvernance d’entreprise d’Azure.
Nouveautés
Microsoft Foundry inclut désormais Fireworks AI comme option en préversion publique pour l’inférence de modèles ouverts dans Azure. Cette annonce positionne Foundry comme un plan de contrôle centralisé pour l’ensemble du cycle de vie de l’IA, y compris l’évaluation des modèles, le déploiement, la personnalisation et les opérations.
Les principales nouveautés incluent :
- Préversion publique de Fireworks AI sur Microsoft Foundry pour une inférence de modèles ouverts à haut débit et à faible latence
- Accès à des modèles ouverts pris en charge via un point de terminaison Azure unique dans Foundry
- Prise en charge de ces modèles dès aujourd’hui :
- DeepSeek V3.2
- OpenAI gpt-oss-120b
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.5 est nouvellement ajouté à Foundry avec une prise en charge serverless
- Prise en charge du Bring-your-own-weights (BYOW) pour les modèles quantifiés ou fine-tuned entraînés ailleurs
- Flexibilité de déploiement avec :
- Une inférence serverless, pay-per-token pour une expérimentation rapide
- Des Provisioned Throughput Units (PTUs) pour des performances de production prévisibles
Microsoft a également mis en avant les capacités d’inférence à grande échelle de Fireworks AI, notamment le traitement de tokens à l’échelle d’Internet et un débit de référence de premier plan pour les modèles ouverts.
Pourquoi c’est important pour les équipes IT et plateforme
Pour les administrateurs Azure, les équipes de plateforme IA et les architectes d’entreprise, cela réduit la complexité opérationnelle liée à la prise en charge des modèles ouverts. Au lieu de créer des piles de service ou des cadres de gouvernance distincts, les équipes peuvent utiliser Foundry comme environnement unique pour l’accès aux modèles, le déploiement, l’observabilité et le contrôle des politiques.
Cela est particulièrement pertinent pour les organisations qui souhaitent :
- Standardiser sur des modèles ouverts sans verrouillage fournisseur
- Prendre en charge des modèles personnalisés fine-tuned tout en conservant une plateforme de service cohérente
- Équilibrer coût et performance entre les charges de travail d’expérimentation et de production
- Appliquer des contrôles de gouvernance et de sécurité d’entreprise aux déploiements IA dans Azure
Étapes suivantes recommandées
Les administrateurs et les équipes IA devraient :
- Consulter le catalogue de modèles Microsoft Foundry pour les modèles hébergés par Fireworks.
- Évaluer si les déploiements serverless ou basés sur des PTU correspondent le mieux aux exigences des charges de travail.
- Tester les scénarios BYOW si votre organisation dispose déjà de modèles ouverts fine-tuned ou quantifiés.
- Valider les exigences en matière de gouvernance, d’observabilité et d’exploitation avant le déploiement en production.
- Suivre les recommandations supplémentaires de Microsoft sur la personnalisation des modèles et la gestion du cycle de vie dans Foundry.
Fireworks AI sur Microsoft Foundry offre aux clients Azure une voie plus solide pour opérationnaliser les modèles ouverts à grande échelle, sans sacrifier les performances, la flexibilité ou le contrôle d’entreprise.
Besoin d'aide avec Azure ?
Nos experts peuvent vous aider à implémenter et optimiser vos solutions Microsoft.
Parler à un expertRestez informé sur les technologies Microsoft