Azure

Fireworks AI w Microsoft Foundry na Azure — publiczna preview

3 min czytania

Podsumowanie

Microsoft udostępnił w publicznej wersji zapoznawczej integrację Fireworks AI z Microsoft Foundry na Azure, umożliwiając uruchamianie otwartych modeli przez jeden punkt końcowy z wysoką wydajnością, niskimi opóźnieniami oraz opcjami serverless i BYOW. To ważne dla firm, bo upraszcza przejście od testów do produkcji, łącząc szybką inferencję z centralnym zarządzaniem, nadzorem i obsługą modeli takich jak DeepSeek V3.2, gpt-oss-120b, Kimi K2.5 i MiniMax M2.5.

Potrzebujesz pomocy z Azure?Porozmawiaj z ekspertem

Fireworks AI trafia do Microsoft Foundry

Wprowadzenie

Organizacje wdrażające otwarte modele oczekują czegoś więcej niż surowej wydajności — potrzebują praktycznego sposobu na bezpieczne uruchamianie tych modeli, spójne zarządzanie nimi oraz płynne przechodzenie od testów do środowiska produkcyjnego bez łączenia wielu narzędzi. Nowa publiczna wersja zapoznawcza Fireworks AI w Microsoft Foundry ma rozwiązać ten problem, łącząc szybką inferencję otwartych modeli z możliwościami zarządzania i nadzoru klasy korporacyjnej w Azure.

Co nowego

Microsoft Foundry obejmuje teraz Fireworks AI jako opcję w publicznej wersji zapoznawczej dla inferencji otwartych modeli w Azure. Ogłoszenie pozycjonuje Foundry jako scentralizowaną płaszczyznę sterowania dla pełnego cyklu życia AI, w tym oceny modeli, wdrażania, dostosowywania i operacji.

Najważniejsze aktualizacje obejmują:

  • Publiczną wersję zapoznawczą Fireworks AI w Microsoft Foundry dla inferencji otwartych modeli o wysokiej przepustowości i niskich opóźnieniach
  • Dostęp do obsługiwanych otwartych modeli przez jeden punkt końcowy Azure w Foundry
  • Obsługę następujących modeli już dziś:
    • DeepSeek V3.2
    • OpenAI gpt-oss-120b
    • Kimi K2.5
    • MiniMax M2.5
  • MiniMax M2.5 został właśnie dodany do Foundry z obsługą serverless
  • Obsługę bring-your-own-weights (BYOW) dla modeli skwantyzowanych lub dostrojonych trenowanych poza platformą
  • Elastyczność wdrożenia dzięki:
    • inferencji serverless, pay-per-token dla szybkiego eksperymentowania
    • Provisioned Throughput Units (PTUs) dla przewidywalnej wydajności w środowisku produkcyjnym

Microsoft podkreślił również możliwości Fireworks AI w zakresie inferencji na dużą skalę, w tym przetwarzanie tokenów na skalę internetu oraz czołową w benchmarkach przepustowość dla otwartych modeli.

Dlaczego ma to znaczenie dla zespołów IT i platformowych

Dla administratorów Azure, zespołów platform AI i architektów korporacyjnych oznacza to mniejszą złożoność operacyjną przy obsłudze otwartych modeli. Zamiast budować oddzielne stosy serwujące lub ramy nadzoru, zespoły mogą używać Foundry jako jednego środowiska do dostępu do modeli, wdrażania, obserwowalności i kontroli polityk.

Jest to szczególnie istotne dla organizacji, które chcą:

  • Standaryzować wykorzystanie otwartych modeli bez uzależnienia od jednego dostawcy
  • Obsługiwać własne dostrojone modele przy zachowaniu spójnej platformy serwującej
  • Równoważyć koszty i wydajność między eksperymentami a obciążeniami produkcyjnymi
  • Stosować korporacyjne mechanizmy nadzoru i kontroli bezpieczeństwa do wdrożeń AI w Azure

Zalecane kolejne kroki

Administratorzy i zespoły AI powinni:

  1. Przejrzeć katalog modeli Microsoft Foundry pod kątem modeli hostowanych przez Fireworks.
  2. Ocenić, czy wdrożenia serverless czy wdrożenia oparte na PTU lepiej odpowiadają wymaganiom obciążenia.
  3. Przetestować scenariusze BYOW, jeśli organizacja ma już dostrojone lub skwantyzowane otwarte modele.
  4. Zweryfikować wymagania dotyczące nadzoru, obserwowalności i operacji przed wdrożeniem produkcyjnym.
  5. Śledzić dodatkowe wytyczne Microsoft dotyczące dostosowywania modeli i zarządzania ich cyklem życia w Foundry.

Fireworks AI w Microsoft Foundry daje klientom Azure silniejszą ścieżkę do operacjonalizacji otwartych modeli na dużą skalę — bez rezygnacji z wydajności, elastyczności czy kontroli klasy korporacyjnej.

Potrzebujesz pomocy z Azure?

Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.

Porozmawiaj z ekspertem

Bądź na bieżąco z technologiami Microsoft

AzureMicrosoft FoundryFireworks AIopen modelsAI inference

Powiązane artykuły

Azure

Agentic AI w Azure: podcast Microsoft The Shift

Microsoft uruchomił podcast The Shift, którego wiosenny sezon skupi się na agentic AI w Azure i środowiskach enterprise, omawiając m.in. dane, koordynację wielu agentów, context engineering, architekturę oraz governance. To ważne, ponieważ pokazuje, że agenci AI przestają być jedynie koncepcją produktową i stają się realnym wyzwaniem dla zespołów IT, wymagającym przemyślenia całego stosu technologicznego, bezpieczeństwa i organizacji pracy.

Azure

Azure i agentic AI w modernizacji chmury regulowanej

Microsoft wskazuje, że Azure w połączeniu z agentic AI może przyspieszyć modernizację chmury w branżach regulowanych, automatyzując ocenę obciążeń, orkiestrację migracji i procesy modernizacyjne. To ważne, ponieważ organizacje coraz częściej przenoszą się do chmury nie tylko dla oszczędności i wydajności, ale też po to, by poprawić zgodność, odporność oraz przygotować środowiska pod szersze wykorzystanie AI.

Azure

Azure Copilot do migracji i modernizacji aplikacji AI

Microsoft zapowiedział nowe agentowe funkcje w Azure Copilot i GitHub Copilot, które mają usprawnić migrację i modernizację aplikacji, infrastruktury, baz danych oraz kodu z pomocą AI. To ważne, ponieważ firmy często zmagają się z rozproszonym i złożonym procesem modernizacji, a nowe narzędzia mają przyspieszyć planowanie, ocenę kosztów i wdrażanie zmian na dużą skalę.

Azure

Azure IaaS Resource Center: centrum projektowania infrastruktury

Microsoft uruchomił Azure IaaS Resource Center — nowe centrum wiedzy, które zbiera w jednym miejscu wytyczne projektowe, materiały architektoniczne i najlepsze praktyki dla compute, storage i networkingu w Azure. To ważne, bo ma pomóc zespołom traktować IaaS jako spójną platformę do budowy wydajnej, odpornej i opłacalnej infrastruktury, co staje się kluczowe przy obsłudze tradycyjnych aplikacji, usług rozproszonych i obciążeń AI.

Azure

Microsoft Foundry: 327% ROI dla platformy enterprise AI

Badanie Forrester TEI wskazuje, że Microsoft Foundry może przynieść organizacjom enterprise AI 327% ROI w trzy lata, zwrot już po sześciu miesiącach oraz nawet 49,5 mln USD korzyści przy inwestycji 11,6 mln USD. To ważne dla działów IT i liderów AI, ponieważ pokazuje, że największe oszczędności i wzrost produktywności wynikają z ograniczenia czasu traconego na składanie infrastruktury, governance i pipeline’ów zamiast na dostarczanie wartości biznesowej.

Azure

Microsoft Foundry z GPT-5.4 dla enterprise AI w Azure

Microsoft udostępnia GPT-5.4 w Microsoft Foundry dla Azure, pozycjonując go jako model do wdrożeń produkcyjnych w enterprise AI, z naciskiem na lepsze trzymanie kontekstu, zgodność z instrukcjami, niższe opóźnienia i bardziej niezawodne użycie narzędzi. To ważne dla firm budujących agentów AI, ponieważ może ułatwić automatyzację złożonych workflow, ograniczyć potrzebę ręcznego nadzoru i poprawić jakość wyników w realnych operacjach biznesowych.