Fireworks AI en Microsoft Foundry para Azure en preview
Resumen
Microsoft anunció la vista previa pública de Fireworks AI en Microsoft Foundry para Azure, una integración que permite ejecutar modelos abiertos con alta velocidad y baja latencia desde un único endpoint, con capacidades empresariales de evaluación, implementación, personalización y gobernanza. Esto importa porque facilita llevar modelos abiertos a producción de forma más segura y centralizada en Azure, incluyendo soporte para BYOW y nuevos modelos como MiniMax M2.5 con opción serverless.
Fireworks AI llega a Microsoft Foundry
Introducción
Las organizaciones que adoptan modelos abiertos quieren más que rendimiento bruto: necesitan una forma práctica de ejecutar esos modelos de manera segura, gobernarlos de forma coherente y pasar de las pruebas a producción sin tener que unir múltiples herramientas. La nueva vista previa pública de Microsoft de Fireworks AI en Microsoft Foundry busca resolver ese problema al combinar inferencia rápida de modelos abiertos con las capacidades empresariales de administración y gobernanza de Azure.
Qué hay de nuevo
Microsoft Foundry ahora incluye Fireworks AI como una opción en vista previa pública para inferencia de modelos abiertos en Azure. El anuncio posiciona a Foundry como un plano de control centralizado para todo el ciclo de vida de la IA, incluida la evaluación, implementación, personalización y operación de modelos.
Las actualizaciones clave incluyen:
- Vista previa pública de Fireworks AI en Microsoft Foundry para inferencia de modelos abiertos de alto rendimiento y baja latencia
- Acceso a modelos abiertos compatibles mediante un único endpoint de Azure en Foundry
- Compatibilidad actual con estos modelos:
- DeepSeek V3.2
- OpenAI gpt-oss-120b
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.5 se agrega recientemente a Foundry con soporte serverless
- Soporte de bring-your-own-weights (BYOW) para modelos cuantizados o ajustados con fine-tuning entrenados en otros entornos
- Flexibilidad de implementación con:
- Inferencia serverless, pay-per-token para experimentación rápida
- Provisioned Throughput Units (PTUs) para un rendimiento predecible en producción
Microsoft también destacó las capacidades de inferencia a gran escala de Fireworks AI, incluido el procesamiento de tokens a escala de internet y un throughput líder en benchmarks para modelos abiertos.
Por qué esto importa para los equipos de TI y plataforma
Para administradores de Azure, equipos de plataforma de IA y arquitectos empresariales, esto reduce la complejidad operativa de dar soporte a modelos abiertos. En lugar de crear stacks de serving o marcos de gobernanza por separado, los equipos pueden usar Foundry como un único entorno para acceso a modelos, implementación, observabilidad y control de políticas.
Esto es especialmente relevante para organizaciones que quieren:
- Estandarizar en modelos abiertos sin vendor lock-in
- Dar soporte a modelos personalizados ajustados con fine-tuning manteniendo una plataforma de serving coherente
- Equilibrar costo y rendimiento entre cargas de trabajo de experimentación y producción
- Aplicar controles empresariales de gobernanza y seguridad a implementaciones de IA en Azure
Próximos pasos recomendados
Los administradores y equipos de IA deberían:
- Revisar el catálogo de modelos de Microsoft Foundry para los modelos hospedados por Fireworks.
- Evaluar si las implementaciones serverless o las implementaciones basadas en PTU se ajustan mejor a los requisitos de la carga de trabajo.
- Probar escenarios de BYOW si su organización ya cuenta con modelos abiertos cuantizados o ajustados con fine-tuning.
- Validar los requisitos de gobernanza, observabilidad y operación antes del despliegue en producción.
- Seguir la orientación adicional de Microsoft sobre personalización de modelos y gestión del ciclo de vida en Foundry.
Fireworks AI en Microsoft Foundry ofrece a los clientes de Azure una vía más sólida para operacionalizar modelos abiertos a escala, sin sacrificar rendimiento, flexibilidad ni control empresarial.
¿Necesita ayuda con Azure?
Nuestros expertos pueden ayudarle a implementar y optimizar sus soluciones Microsoft.
Hablar con un expertoManténgase actualizado sobre tecnologías Microsoft