Azure

GPT-5.5 in Microsoft Foundry für Enterprise-AI

3 Min. Lesezeit

Zusammenfassung

Microsoft stellt OpenAI GPT-5.5 allgemein in Microsoft Foundry verfügbar und gibt Azure-Kunden damit ein neues Frontier-Modell für Long-Context-Reasoning, agentische Ausführung und geringeren Token-Verbrauch. Das Update ist für Unternehmen relevant, weil Foundry die Sicherheits-, Governance-, Identitäts- und Bereitstellungskontrollen ergänzt, die für den Betrieb produktiver AI-Agents im großen Maßstab erforderlich sind.

Brauchen Sie Hilfe mit Azure?Mit einem Experten sprechen

Einführung

Microsoft bringt OpenAI GPT-5.5 in Microsoft Foundry und erweitert damit die Enterprise-AI-Plattform von Azure um ein Modell, das für zuverlässigeres Reasoning, Agent-Ausführung und Effizienz im produktiven Einsatz entwickelt wurde. Für IT-Führungskräfte, Entwickler und Plattformteams ist die größere Geschichte nicht nur der Modellzugang – sondern die Möglichkeit, fortschrittliche AI mit integrierter Governance, Identität und Sicherheit zu operationalisieren.

Was ist neu bei GPT-5.5 in Microsoft Foundry

GPT-5.5 ist jetzt allgemein in Microsoft Foundry verfügbar, zusammen mit der Premium-Option GPT-5.5 Pro für anspruchsvollere Workloads.

Zu den von Microsoft hervorgehobenen Verbesserungen gehören:

  • Tieferes Long-Context-Reasoning für große Dokumente, Codebases und sitzungsübergreifende Arbeit
  • Zuverlässigere agentische Ausführung für mehrstufige Aufgaben und professionelle Workflows
  • Verbesserte Genauigkeit bei Computer Use bei der Interaktion mit Softwareoberflächen
  • Bessere Token-Effizienz zur Reduzierung von Kosten und Latenz im großen Maßstab
  • Stärkere Unterstützung für Coding, Research, Dokumentenerstellung und Analyse

Microsoft positioniert GPT-5.5 für Szenarien, in denen Präzision entscheidend ist, darunter Software Engineering, DevOps, Recht, Gesundheitswissenschaften und Professional Services.

Warum Foundry für Unternehmen wichtig ist

Microsoft Foundry ist die Plattformebene, die Organisationen dabei hilft, von AI-Experimenten zu einem kontrollierten produktiven Einsatz überzugehen. Statt nur einen Modellendpunkt bereitzustellen, bietet Foundry:

  • Enterprise-taugliche Sicherheit, Compliance und Governance
  • Breite Modellauswahl und interoperable Agent-Frameworks
  • Integration mit Unternehmenssystemen und Produktivitätstools
  • Einfachere Evaluierung, Bereitstellung und Skalierung neuer Modelle

Microsoft hob außerdem den Foundry Agent Service als Betriebsumgebung für den Betrieb von Agents im großen Maßstab hervor. Gehostete Agents können in isolierten Sandboxes ausgeführt werden mit:

  • Einem persistenten Dateisystem
  • Einer eigenen Microsoft Entra identity
  • Scale-to-zero-Preismodell
  • Unterstützung für Frameworks wie LangGraph, OpenAI Agents SDK, Claude Agent SDK, Microsoft Agent Framework und GitHub Copilot SDK

Preise im Überblick

Microsoft hat die Token-Preise für beide Modelle veröffentlicht:

  • GPT-5.5: 5 $/M Input, 0,50 $/M zwischengespeicherter Input, 30 $/M Output
  • GPT-5.5 Pro: 30 $/M Input, 3 $/M zwischengespeicherter Input, 180 $/M Output

Auswirkungen auf IT-Administratoren und Plattformteams

Für Azure- und AI-Plattformadministratoren bedeutet diese Veröffentlichung mehr Auswahl für produktive AI-Workloads, ohne auf Enterprise-Kontrollen verzichten zu müssen. Teams können standardisieren, wie Agents bereitgestellt, abgesichert und verwaltet werden, und gleichzeitig mehrere Frameworks und Identitäten über Foundry unterstützen.

Auch Entwickler profitieren von einem klareren Weg in die Produktion, insbesondere bei Anwendungsfällen mit Coding-Assistenten, Research-Agents und Workflow-Automatisierung.

Nächste Schritte

Wenn Ihre Organisation bereits AI-Agents auf Azure testet, ist jetzt der richtige Zeitpunkt, um:

  • GPT-5.5 für hochpräzise Workflows zu evaluieren
  • Den Foundry Agent Service für die sichere Bereitstellung gehosteter Agents zu prüfen
  • Token-Kosten mit der aktuellen Modellnutzung zu vergleichen
  • Governance-, Identitäts- und Compliance-Anforderungen vor einem breiteren Rollout zu validieren

Für Unternehmen, die über Pilotprojekte hinausgehen, wirkt GPT-5.5 in Microsoft Foundry wie ein bedeutender Schritt hin zu skalierbarer, kontrollierter agentischer AI in der Produktion.

Brauchen Sie Hilfe mit Azure?

Unsere Experten helfen Ihnen bei der Implementierung und Optimierung Ihrer Microsoft-Lösungen.

Mit einem Experten sprechen

Bleiben Sie über Microsoft-Technologien auf dem Laufenden

AzureMicrosoft FoundryGPT-5.5AI agentsenterprise AI

Verwandte Beiträge

Azure

Microsoft Discovery: Preview für agentische F&E

Microsoft hat den Preview-Zugang zu Microsoft Discovery erweitert, seiner Azure-basierten agentischen AI-Plattform für Forschung und Entwicklung. Das Update bringt höhere Enterprise-Reife, Partner-Interoperabilität, Governance-Kontrollen und Integrationen, die F&E-Teams helfen, Hypothesengenerierung, Validierung und wissenschaftliche Workflows im großen Maßstab zu beschleunigen.

Azure

Azure Accelerate for Databases für AI-Readiness

Microsoft hat Azure Accelerate for Databases gestartet, ein neues Programm, das Unternehmen mit Expertenunterstützung, Finanzierung, Credits, Schulungen und Savings Plans dabei helfen soll, ihre Datenbanklandschaften für AI zu modernisieren. Das Angebot soll Migrationsrisiken und -kosten senken und IT-Teams dabei unterstützen, eine stärkere, AI-fähige Datengrundlage auf Azure aufzubauen.

Azure

Azure Kostenoptimierung für AI-Workloads

Microsoft hebt hervor, warum die Optimierung von Cloud-Kosten weiterhin essenziell bleibt, da AI-Workloads weniger vorhersehbare Nutzungsmuster und eine höhere Kostensensibilität mit sich bringen. Die Empfehlungen betonen Transparenz, Governance, Rightsizing und kontinuierliche Überprüfung, damit Unternehmen ihre Azure-Ausgaben kontrollieren und gleichzeitig Performance und Innovation unterstützen können.

Azure

Azure Smart Tier GA für Blob- und Data Lake Storage

Microsoft hat Azure Storage Smart Tier für Azure Blob Storage und Azure Data Lake Storage in nahezu allen zonalen Public-Cloud-Regionen allgemein verfügbar gemacht. Die Funktion verschiebt Objekte automatisch anhand von Zugriffsmustern zwischen den Tiers Hot, Cool und Cold und hilft Unternehmen, Speicherkosten zu senken, ohne Lifecycle-Regeln manuell verwalten zu müssen.

Azure

Azure AI-Kostenoptimierung: ROI 2026 maximieren

Microsoft hat eine neue Azure-orientierte Leitfadenreihe zur Cloud-Kostenoptimierung gestartet, beginnend mit Strategien zur Maximierung des ROI von AI bei gleichzeitig kontrollierten Ausgaben. Der Beitrag zeigt, warum sich das Management von AI-Kosten von der klassischen Cloud-Optimierung unterscheidet und weshalb Unternehmen mit zunehmender AI-Nutzung eine Governance über den gesamten Lifecycle, Transparenz und Value-Tracking benötigen.

Azure

GitHub Copilot für Dokumentationstests bei Drasi

Das Drasi-Team hat einen automatisierten Workflow zum Testen von Dokumentation mit GitHub Copilot CLI, Dev Containers, Playwright und GitHub Actions entwickelt. Indem der AI-Agent wie ein synthetischer neuer Benutzer behandelt wird, kann das Projekt fehlerhafte Tutorials und Abweichungen in der Dokumentation früher erkennen und so ein zuverlässiges Onboarding für Entwickler sicherstellen.