Fireworks AI w Microsoft Foundry na Azure — publiczna preview
Podsumowanie
Microsoft udostępnił w publicznej wersji zapoznawczej integrację Fireworks AI z Microsoft Foundry na Azure, umożliwiając uruchamianie otwartych modeli przez jeden punkt końcowy z wysoką wydajnością, niskimi opóźnieniami oraz opcjami serverless i BYOW. To ważne dla firm, bo upraszcza przejście od testów do produkcji, łącząc szybką inferencję z centralnym zarządzaniem, nadzorem i obsługą modeli takich jak DeepSeek V3.2, gpt-oss-120b, Kimi K2.5 i MiniMax M2.5.
Fireworks AI trafia do Microsoft Foundry
Wprowadzenie
Organizacje wdrażające otwarte modele oczekują czegoś więcej niż surowej wydajności — potrzebują praktycznego sposobu na bezpieczne uruchamianie tych modeli, spójne zarządzanie nimi oraz płynne przechodzenie od testów do środowiska produkcyjnego bez łączenia wielu narzędzi. Nowa publiczna wersja zapoznawcza Fireworks AI w Microsoft Foundry ma rozwiązać ten problem, łącząc szybką inferencję otwartych modeli z możliwościami zarządzania i nadzoru klasy korporacyjnej w Azure.
Co nowego
Microsoft Foundry obejmuje teraz Fireworks AI jako opcję w publicznej wersji zapoznawczej dla inferencji otwartych modeli w Azure. Ogłoszenie pozycjonuje Foundry jako scentralizowaną płaszczyznę sterowania dla pełnego cyklu życia AI, w tym oceny modeli, wdrażania, dostosowywania i operacji.
Najważniejsze aktualizacje obejmują:
- Publiczną wersję zapoznawczą Fireworks AI w Microsoft Foundry dla inferencji otwartych modeli o wysokiej przepustowości i niskich opóźnieniach
- Dostęp do obsługiwanych otwartych modeli przez jeden punkt końcowy Azure w Foundry
- Obsługę następujących modeli już dziś:
- DeepSeek V3.2
- OpenAI gpt-oss-120b
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.5 został właśnie dodany do Foundry z obsługą serverless
- Obsługę bring-your-own-weights (BYOW) dla modeli skwantyzowanych lub dostrojonych trenowanych poza platformą
- Elastyczność wdrożenia dzięki:
- inferencji serverless, pay-per-token dla szybkiego eksperymentowania
- Provisioned Throughput Units (PTUs) dla przewidywalnej wydajności w środowisku produkcyjnym
Microsoft podkreślił również możliwości Fireworks AI w zakresie inferencji na dużą skalę, w tym przetwarzanie tokenów na skalę internetu oraz czołową w benchmarkach przepustowość dla otwartych modeli.
Dlaczego ma to znaczenie dla zespołów IT i platformowych
Dla administratorów Azure, zespołów platform AI i architektów korporacyjnych oznacza to mniejszą złożoność operacyjną przy obsłudze otwartych modeli. Zamiast budować oddzielne stosy serwujące lub ramy nadzoru, zespoły mogą używać Foundry jako jednego środowiska do dostępu do modeli, wdrażania, obserwowalności i kontroli polityk.
Jest to szczególnie istotne dla organizacji, które chcą:
- Standaryzować wykorzystanie otwartych modeli bez uzależnienia od jednego dostawcy
- Obsługiwać własne dostrojone modele przy zachowaniu spójnej platformy serwującej
- Równoważyć koszty i wydajność między eksperymentami a obciążeniami produkcyjnymi
- Stosować korporacyjne mechanizmy nadzoru i kontroli bezpieczeństwa do wdrożeń AI w Azure
Zalecane kolejne kroki
Administratorzy i zespoły AI powinni:
- Przejrzeć katalog modeli Microsoft Foundry pod kątem modeli hostowanych przez Fireworks.
- Ocenić, czy wdrożenia serverless czy wdrożenia oparte na PTU lepiej odpowiadają wymaganiom obciążenia.
- Przetestować scenariusze BYOW, jeśli organizacja ma już dostrojone lub skwantyzowane otwarte modele.
- Zweryfikować wymagania dotyczące nadzoru, obserwowalności i operacji przed wdrożeniem produkcyjnym.
- Śledzić dodatkowe wytyczne Microsoft dotyczące dostosowywania modeli i zarządzania ich cyklem życia w Foundry.
Fireworks AI w Microsoft Foundry daje klientom Azure silniejszą ścieżkę do operacjonalizacji otwartych modeli na dużą skalę — bez rezygnacji z wydajności, elastyczności czy kontroli klasy korporacyjnej.
Potrzebujesz pomocy z Azure?
Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.
Porozmawiaj z ekspertemBądź na bieżąco z technologiami Microsoft