Azure

Fireworks AI su Microsoft Foundry: inferenza open su Azure

3 min di lettura

Riepilogo

Microsoft ha annunciato la public preview di Fireworks AI su Microsoft Foundry, portando in Azure un’opzione per l’inferenza di modelli open ad alto throughput e bassa latenza tramite un unico endpoint gestito. La novità conta perché combina velocità e flessibilità dei modelli open con governance, sicurezza e operatività enterprise di Azure, semplificando il passaggio dalla sperimentazione alla produzione anche con scenari BYOW e deployment serverless.

Hai bisogno di aiuto con Azure?Parla con un esperto

Fireworks AI arriva su Microsoft Foundry

Introduzione

Le organizzazioni che adottano modelli open vogliono più delle sole prestazioni pure: hanno bisogno di un modo pratico per eseguire questi modelli in modo sicuro, governarli in modo coerente e passare dai test alla produzione senza dover assemblare più strumenti. La nuova public preview di Fireworks AI su Microsoft Foundry di Microsoft punta a risolvere questo problema combinando un'inferenza rapida per modelli open con le funzionalità di gestione e governance enterprise di Azure.

Novità

Microsoft Foundry ora include Fireworks AI come opzione in public preview per l'inferenza di modelli open in Azure. L'annuncio posiziona Foundry come un control plane centralizzato per l'intero ciclo di vita dell'AI, inclusi valutazione dei modelli, distribuzione, personalizzazione e operazioni.

Gli aggiornamenti principali includono:

  • Public preview di Fireworks AI su Microsoft Foundry per l'inferenza di modelli open ad alto throughput e bassa latenza
  • Accesso ai modelli open supportati tramite un singolo endpoint Azure in Foundry
  • Supporto attuale per questi modelli:
    • DeepSeek V3.2
    • OpenAI gpt-oss-120b
    • Kimi K2.5
    • MiniMax M2.5
  • MiniMax M2.5 è stato aggiunto di recente a Foundry con supporto serverless
  • Supporto bring-your-own-weights (BYOW) per modelli quantizzati o fine-tuned addestrati altrove
  • Flessibilità di distribuzione con:
    • Inferenza serverless, pay-per-token per sperimentazioni rapide
    • Provisioned Throughput Units (PTU) per prestazioni di produzione prevedibili

Microsoft ha inoltre evidenziato le capacità di inferenza su larga scala di Fireworks AI, inclusa l'elaborazione di token su scala internet e throughput ai vertici dei benchmark per i modelli open.

Perché è importante per i team IT e di piattaforma

Per gli amministratori Azure, i team della piattaforma AI e gli enterprise architect, questo riduce la complessità operativa del supporto ai modelli open. Invece di creare stack di serving o framework di governance separati, i team possono usare Foundry come ambiente unico per accesso ai modelli, distribuzione, osservabilità e controllo delle policy.

Questo è particolarmente rilevante per le organizzazioni che vogliono:

  • Standardizzare sui modelli open senza vendor lock-in
  • Supportare modelli custom fine-tuned mantenendo una piattaforma di serving coerente
  • Bilanciare costo e prestazioni tra carichi di lavoro di sperimentazione e produzione
  • Applicare controlli di governance e sicurezza enterprise alle distribuzioni AI in Azure

Passaggi successivi consigliati

Gli amministratori e i team AI dovrebbero:

  1. Esaminare il catalogo modelli di Microsoft Foundry per i modelli ospitati da Fireworks.
  2. Valutare se le distribuzioni serverless o basate su PTU siano più adatte ai requisiti del carico di lavoro.
  3. Testare gli scenari BYOW se la propria organizzazione dispone già di modelli open fine-tuned o quantizzati.
  4. Convalidare requisiti di governance, osservabilità e operatività prima della distribuzione in produzione.
  5. Monitorare le ulteriori indicazioni di Microsoft sulla personalizzazione dei modelli e sulla gestione del ciclo di vita in Foundry.

Fireworks AI su Microsoft Foundry offre ai clienti Azure un percorso più solido per rendere operativi i modelli open su larga scala, senza sacrificare prestazioni, flessibilità o controllo enterprise.

Hai bisogno di aiuto con Azure?

I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.

Parla con un esperto

Resta aggiornato sulle tecnologie Microsoft

AzureMicrosoft FoundryFireworks AIopen modelsAI inference

Articoli correlati

Azure

Microsoft The Shift podcast: sfide reali dell’agentic AI

Microsoft ha lanciato The Shift, una nuova serie podcast che dedica otto episodi alle principali sfide dell’agentic AI in ambito Azure, tra cui dati, coordinamento tra agenti, context engineering, piattaforme come Postgres e Fabric, e governance. La notizia è rilevante perché segnala che gli agent AI stanno passando da semplice funzionalità di prodotto a tema architetturale enterprise, richiedendo ai team IT di ripensare stack, processi e controlli operativi.

Azure

Azure Agentic AI for Regulated Cloud Modernization

Microsoft says Azure combined with agentic AI can help regulated industries move beyond slow, one-time cloud migrations toward continuous modernization, balancing legacy infrastructure, compliance demands, and mission-critical workloads. The update matters because it frames cloud adoption not just as a cost-saving measure, but as a foundation for operational agility, stronger resilience, governance and compliance, and better AI readiness.

Azure

Azure Copilot agent per migrazione e modernizzazione AI

Microsoft ha annunciato nuovi agent AI in Azure Copilot e GitHub Copilot per accelerare la migrazione e la modernizzazione di infrastrutture, database, applicazioni e codice, con il nuovo Azure Copilot migration agent e il GitHub Copilot modernization agent ora in public preview. La novità conta perché collega discovery, assessment, pianificazione e deployment in un flusso end-to-end più automatizzato, aiutando le organizzazioni a ridurre complessità, costi e tempi nei progetti di adozione dell’AI su larga scala.

Azure

Azure IaaS Resource Center: guida per infrastrutture resilienti

Microsoft ha lanciato l’Azure IaaS Resource Center, un hub unico con linee guida, demo, risorse architetturali e best practice per progettare e gestire infrastrutture Azure più resilienti, performanti ed efficienti nei costi. La novità è rilevante perché rafforza l’idea di Azure IaaS come piattaforma integrata per workload tradizionali, distribuiti e AI, aiutando i team IT a migliorare continuità operativa, sicurezza e ottimizzazione dell’infrastruttura.

Azure

Microsoft Foundry ROI 327%: studio Forrester AI

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, recover its investment in six months, and realize $49.5 million in quantified benefits through higher developer productivity and lower infrastructure costs. This matters for Azure and IT leaders because it reinforces the value of a unified AI platform in reducing the hidden operational overhead of enterprise AI, helping teams move faster from infrastructure setup to business outcomes.

Azure

GPT-5.4 in Microsoft Foundry per AI enterprise affidabile

Microsoft ha introdotto GPT-5.4 in Microsoft Foundry come modello pensato per portare l’AI enterprise in produzione, con maggiore affidabilità su workflow multi-step, contesto persistente, uso degli strumenti e output più coerenti. La novità conta perché aiuta le aziende a ridurre task drift, latenza e supervisione manuale, rendendo più pratico costruire agent AI affidabili per automazione, analisi e processi operativi reali.