Azure

Fireworks AI sur Microsoft Foundry : inférence IA

3 min de lecture

Résumé

Microsoft met Fireworks AI en préversion publique dans Microsoft Foundry afin de fournir une inférence rapide de modèles ouverts via un point de terminaison Azure unique, avec des fonctions de gestion, de gouvernance et d’exploitation adaptées aux entreprises. Cette annonce compte car elle simplifie le passage des tests à la production pour des modèles comme DeepSeek, Kimi, gpt-oss et MiniMax, tout en renforçant la sécurité, la centralisation et la flexibilité grâce au serverless et au BYOW.

Besoin d'aide avec Azure ?Parler à un expert

Fireworks AI arrive sur Microsoft Foundry

Introduction

Les organisations qui adoptent des modèles ouverts recherchent plus que de simples performances brutes : elles ont besoin d’un moyen pratique d’exécuter ces modèles de manière sécurisée, de les gouverner de façon cohérente et de passer des tests à la production sans devoir assembler plusieurs outils. La nouvelle préversion publique de Fireworks AI sur Microsoft Foundry vise à résoudre ce problème en combinant une inférence rapide de modèles ouverts avec les capacités de gestion et de gouvernance d’entreprise d’Azure.

Nouveautés

Microsoft Foundry inclut désormais Fireworks AI comme option en préversion publique pour l’inférence de modèles ouverts dans Azure. Cette annonce positionne Foundry comme un plan de contrôle centralisé pour l’ensemble du cycle de vie de l’IA, y compris l’évaluation des modèles, le déploiement, la personnalisation et les opérations.

Les principales nouveautés incluent :

  • Préversion publique de Fireworks AI sur Microsoft Foundry pour une inférence de modèles ouverts à haut débit et à faible latence
  • Accès à des modèles ouverts pris en charge via un point de terminaison Azure unique dans Foundry
  • Prise en charge de ces modèles dès aujourd’hui :
    • DeepSeek V3.2
    • OpenAI gpt-oss-120b
    • Kimi K2.5
    • MiniMax M2.5
  • MiniMax M2.5 est nouvellement ajouté à Foundry avec une prise en charge serverless
  • Prise en charge du Bring-your-own-weights (BYOW) pour les modèles quantifiés ou fine-tuned entraînés ailleurs
  • Flexibilité de déploiement avec :
    • Une inférence serverless, pay-per-token pour une expérimentation rapide
    • Des Provisioned Throughput Units (PTUs) pour des performances de production prévisibles

Microsoft a également mis en avant les capacités d’inférence à grande échelle de Fireworks AI, notamment le traitement de tokens à l’échelle d’Internet et un débit de référence de premier plan pour les modèles ouverts.

Pourquoi c’est important pour les équipes IT et plateforme

Pour les administrateurs Azure, les équipes de plateforme IA et les architectes d’entreprise, cela réduit la complexité opérationnelle liée à la prise en charge des modèles ouverts. Au lieu de créer des piles de service ou des cadres de gouvernance distincts, les équipes peuvent utiliser Foundry comme environnement unique pour l’accès aux modèles, le déploiement, l’observabilité et le contrôle des politiques.

Cela est particulièrement pertinent pour les organisations qui souhaitent :

  • Standardiser sur des modèles ouverts sans verrouillage fournisseur
  • Prendre en charge des modèles personnalisés fine-tuned tout en conservant une plateforme de service cohérente
  • Équilibrer coût et performance entre les charges de travail d’expérimentation et de production
  • Appliquer des contrôles de gouvernance et de sécurité d’entreprise aux déploiements IA dans Azure

Étapes suivantes recommandées

Les administrateurs et les équipes IA devraient :

  1. Consulter le catalogue de modèles Microsoft Foundry pour les modèles hébergés par Fireworks.
  2. Évaluer si les déploiements serverless ou basés sur des PTU correspondent le mieux aux exigences des charges de travail.
  3. Tester les scénarios BYOW si votre organisation dispose déjà de modèles ouverts fine-tuned ou quantifiés.
  4. Valider les exigences en matière de gouvernance, d’observabilité et d’exploitation avant le déploiement en production.
  5. Suivre les recommandations supplémentaires de Microsoft sur la personnalisation des modèles et la gestion du cycle de vie dans Foundry.

Fireworks AI sur Microsoft Foundry offre aux clients Azure une voie plus solide pour opérationnaliser les modèles ouverts à grande échelle, sans sacrifier les performances, la flexibilité ou le contrôle d’entreprise.

Besoin d'aide avec Azure ?

Nos experts peuvent vous aider à implémenter et optimiser vos solutions Microsoft.

Parler à un expert

Restez informé sur les technologies Microsoft

AzureMicrosoft FoundryFireworks AIopen modelsAI inference

Articles connexes

Azure

Podcast Microsoft sur l’agentic AI : défis Azure

Microsoft lance « The Shift », une nouvelle série de podcasts Azure consacrée à l’agentic AI, avec huit épisodes explorant des enjeux concrets comme la coordination entre agents, l’accès aux données, le context engineering, la gouvernance et les plateformes comme Postgres, Fabric et OneLake. C’est important pour les équipes IT et architecture, car Microsoft montre que les agents IA deviennent un sujet d’infrastructure d’entreprise à part entière, nécessitant de repenser la conception des systèmes, la sécurité, l’observabilité et les modes de travail.

Azure

Azure et l’IA agentique pour moderniser le cloud

Microsoft met en avant Azure associé à l’IA agentique comme levier de modernisation continue du cloud, en particulier pour les secteurs réglementés freinés par les infrastructures héritées et les exigences de conformité. L’enjeu est important car la migration cloud ne vise plus seulement la réduction des coûts, mais aussi une meilleure résilience, une plus grande agilité opérationnelle et une préparation renforcée à l’adoption de l’IA.

Azure

Azure Copilot : agents IA pour migration de code

Microsoft annonce de nouvelles capacités agentiques dans Azure Copilot et GitHub Copilot pour accélérer la modernisation des infrastructures, applications, bases de données et du code. En préversion publique, ces agents IA automatisent l’inventaire, l’évaluation, la planification et la migration, ce qui aide les entreprises à réduire la complexité, mieux prioriser les coûts et passer d’initiatives ponctuelles à une modernisation continue à grande échelle.

Azure

Azure IaaS Resource Center : guides infra résiliente

Microsoft lance l’Azure IaaS Resource Center, un hub centralisé qui regroupe guides, démonstrations, architectures de référence et bonnes pratiques pour concevoir, optimiser et exploiter une infrastructure Azure. Cette annonce compte car elle encourage les équipes à gérer Azure IaaS comme une plateforme cohérente afin d’améliorer la résilience, les performances, la sécurité et la maîtrise des coûts, notamment pour des charges de travail de plus en plus critiques et liées à l’IA.

Azure

Microsoft Foundry : ROI de 327 % selon Forrester

Une étude Forrester sur Microsoft Foundry indique qu’une entreprise type pourrait atteindre 327 % de ROI sur trois ans, avec un retour sur investissement en six mois, grâce à des gains de productivité, des économies d’infrastructure et une réduction du temps consacré à l’assemblage des briques IA. C’est important pour les responsables IT et Azure, car cela renforce l’idée qu’une plateforme d’IA unifiée peut réduire la complexité opérationnelle et accélérer la création de valeur métier à grande échelle.

Azure

Microsoft Foundry ajoute GPT-5.4 pour l’IA d’entreprise

Microsoft intègre GPT-5.4 à Foundry pour aider les entreprises à faire passer leurs projets d’IA du stade expérimental à des usages en production, avec un meilleur respect des instructions, une gestion plus stable du contexte sur la durée et une latence réduite. Cette évolution compte car elle renforce la fiabilité des agents d’IA dans des workflows complexes et automatisés, tout en améliorant l’orchestration d’outils, l’accès aux fichiers et la qualité des livrables générés.