Azure

Azure Database for PostgreSQL z AI i PostgreSQL 18 GA

3 min czytania

Podsumowanie

Microsoft rozwija Azure Database for PostgreSQL w kierunku platformy „AI-ready”, dodając m.in. łatwiejsze aprowizowanie z poziomu VS Code, integrację z Entra ID i Azure Monitor oraz wsparcie GitHub Copilot do pracy z SQL. Kluczowe znaczenie ma też integracja z Microsoft Foundry, która pozwala wywoływać modele AI bezpośrednio z SQL i wspiera obciążenia wektorowe, co upraszcza budowę aplikacji AI i ogranicza potrzebę tworzenia złożonych potoków danych.

Potrzebujesz pomocy z Azure?Porozmawiaj z ekspertem

Wprowadzenie

PostgreSQL pozostaje domyślnym wyborem w nowoczesnym tworzeniu aplikacji, a obciążenia AI zwiększają wymagania wobec warstwy danych: wyszukiwanie o niskich opóźnieniach, wyszukiwanie wektorowe, bezpieczne mechanizmy kontroli dostępu oraz analityka w czasie rzeczywistym — bez złożonych potoków danych. Najnowsze aktualizacje Microsoft pozycjonują Azure Database for PostgreSQL jako bardziej „AI-ready” usługę zarządzaną, a jednocześnie zapowiadają Azure HorizonDB dla kolejnej generacji obciążeń zgodnych z PostgreSQL, z możliwością skalowania horyzontalnego.

Co nowego

1) Szybsze, bardziej zintegrowane środowisko deweloperskie

  • VS Code PostgreSQL extension może teraz aprowizować bezpieczne, w pełni zarządzane instancje Azure PostgreSQL bezpośrednio z IDE, ograniczając konfigurację wykonywaną w portalu.
  • Aprowizowane instancje zawierają wbudowane wsparcie dla Microsoft Entra ID authentication oraz Azure Monitor.
  • GitHub Copilot ma pomagać deweloperom pisać, optymalizować i diagnozować SQL w języku naturalnym, z uwzględnieniem schematu oraz wzorców zapytań.

2) AI w bazie danych dzięki Microsoft Foundry

  • Azure Database for PostgreSQL wspiera teraz integrację z Microsoft Foundry, umożliwiając deweloperom wywoływanie wcześniej aprowizowanych LLM z poziomu SQL w scenariuszach takich jak klasyfikacja tekstu i generowanie embeddingów.
  • W przypadku obciążeń wektorowych wyróżniono indeksowanie wektorowe DiskANN do wysokowydajnego wyszukiwania podobieństwa, w połączeniu z semantic ranking dla lepszej trafności w scenariuszach wyszukiwania (np. RAG, rekomendacje, interfejsy w języku naturalnym).

3) Przepływy pracy agentowe z użyciem MCP

  • Nowy Model Context Protocol (MCP) server for PostgreSQL umożliwia podłączenie PostgreSQL do frameworka agentów Foundry „za pomocą kilku kliknięć i uprawnień”, pozwalając agentom wnioskować na danych strukturalnych i orkiestracji wywołań LLM — przy zachowaniu modelu bezpieczeństwa i ładu (governance) Azure.

4) Analityka w czasie rzeczywistym i dostęp do Parquet

  • Opcje utrzymania aktualności analityki obejmują mirroring danych operacyjnych do Microsoft Fabric dla analityki niemal w czasie rzeczywistym, z minimalnym wpływem na główną bazę danych.
  • Azure Storage Extension dodaje wsparcie odczytu/zapisu Parquet w Azure Storage bezpośrednio z PostgreSQL przy użyciu SQL, redukując złożoność ETL.

5) Aktualizacje wydajności i skalowania

  • PostgreSQL 18 jest teraz ogólnie dostępny na Azure, z podkreślonymi usprawnieniami w zakresie wydajności I/O, vacuuming oraz planowania zapytań.
  • Nowe V6 compute SKUs celują w wyższą przepustowość i niższe opóźnienia.
  • Elastic Clusters umożliwiają skalowanie horyzontalne dla środowisk multi-tenant oraz obciążeń o dużym wolumenie.

Wpływ na administratorów IT i zespoły platformowe

  • Można oczekiwać ściślejszego dopasowania narzędzi deweloperskich (VS Code/Copilot) do mechanizmów nadzoru platformy (Entra ID, monitoring), co może zwiększyć adopcję — ale też podnosi potrzebę standaryzacji wzorców wdrożeń.
  • AI w bazie danych i indeksowanie wektorowe mogą przenieść część obciążeń z osobnych magazynów/usług wektorowych do PostgreSQL, zmieniając modele doboru rozmiaru, testów wydajności i kosztów.
  • Mirroring do Fabric i dostęp do Parquet mogą ograniczyć rozrost potoków danych, ale wymagają jasnych zasad ładu danych, retencji oraz granic dostępu.

Działania / kolejne kroki

  1. Przegląd strategii tożsamości i dostępu: zweryfikuj wzorce Entra ID auth, role zgodne z zasadą najmniejszych uprawnień oraz wymagania audytowe dla PostgreSQL.
  2. Pilotaż wzorców wyszukiwania dla AI: przetestuj DiskANN/indeksowanie wektorowe oraz semantic ranking na reprezentatywnych danych i docelowych opóźnieniach.
  3. Aktualizacja runbooków operacyjnych: uwzględnij aspekty PostgreSQL 18, bazowe poziomy monitoringu oraz wytyczne skalowania (V6 SKUs, Elastic Clusters).
  4. Ocena architektury danych: sprawdź, czy mirroring do Fabric lub Parquet-in-Postgres zmniejsza złożoność ETL w Twoim środowisku.
  5. Śledzenie HorizonDB: jeśli masz wymagania ultra-niskich opóźnień lub skalowania horyzontalnego, rozważ dołączenie do private preview, gdy będzie dostępne, za pośrednictwem opiekuna konta Microsoft.

Potrzebujesz pomocy z Azure?

Nasi eksperci pomogą Ci wdrożyć i zoptymalizować rozwiązania Microsoft.

Porozmawiaj z ekspertem

Bądź na bieżąco z technologiami Microsoft

Azure Database for PostgreSQLMicrosoft Foundryvector searchPostgreSQL 18VS Code

Powiązane artykuły

Azure

Agentic AI w Azure: podcast Microsoft The Shift

Microsoft uruchomił podcast The Shift, którego wiosenny sezon skupi się na agentic AI w Azure i środowiskach enterprise, omawiając m.in. dane, koordynację wielu agentów, context engineering, architekturę oraz governance. To ważne, ponieważ pokazuje, że agenci AI przestają być jedynie koncepcją produktową i stają się realnym wyzwaniem dla zespołów IT, wymagającym przemyślenia całego stosu technologicznego, bezpieczeństwa i organizacji pracy.

Azure

Azure i agentic AI w modernizacji chmury regulowanej

Microsoft wskazuje, że Azure w połączeniu z agentic AI może przyspieszyć modernizację chmury w branżach regulowanych, automatyzując ocenę obciążeń, orkiestrację migracji i procesy modernizacyjne. To ważne, ponieważ organizacje coraz częściej przenoszą się do chmury nie tylko dla oszczędności i wydajności, ale też po to, by poprawić zgodność, odporność oraz przygotować środowiska pod szersze wykorzystanie AI.

Azure

Fireworks AI w Microsoft Foundry na Azure — publiczna preview

Microsoft udostępnił w publicznej wersji zapoznawczej integrację Fireworks AI z Microsoft Foundry na Azure, umożliwiając uruchamianie otwartych modeli przez jeden punkt końcowy z wysoką wydajnością, niskimi opóźnieniami oraz opcjami serverless i BYOW. To ważne dla firm, bo upraszcza przejście od testów do produkcji, łącząc szybką inferencję z centralnym zarządzaniem, nadzorem i obsługą modeli takich jak DeepSeek V3.2, gpt-oss-120b, Kimi K2.5 i MiniMax M2.5.

Azure

Azure Copilot do migracji i modernizacji aplikacji AI

Microsoft zapowiedział nowe agentowe funkcje w Azure Copilot i GitHub Copilot, które mają usprawnić migrację i modernizację aplikacji, infrastruktury, baz danych oraz kodu z pomocą AI. To ważne, ponieważ firmy często zmagają się z rozproszonym i złożonym procesem modernizacji, a nowe narzędzia mają przyspieszyć planowanie, ocenę kosztów i wdrażanie zmian na dużą skalę.

Azure

Azure IaaS Resource Center: centrum projektowania infrastruktury

Microsoft uruchomił Azure IaaS Resource Center — nowe centrum wiedzy, które zbiera w jednym miejscu wytyczne projektowe, materiały architektoniczne i najlepsze praktyki dla compute, storage i networkingu w Azure. To ważne, bo ma pomóc zespołom traktować IaaS jako spójną platformę do budowy wydajnej, odpornej i opłacalnej infrastruktury, co staje się kluczowe przy obsłudze tradycyjnych aplikacji, usług rozproszonych i obciążeń AI.

Azure

Microsoft Foundry: 327% ROI dla platformy enterprise AI

Badanie Forrester TEI wskazuje, że Microsoft Foundry może przynieść organizacjom enterprise AI 327% ROI w trzy lata, zwrot już po sześciu miesiącach oraz nawet 49,5 mln USD korzyści przy inwestycji 11,6 mln USD. To ważne dla działów IT i liderów AI, ponieważ pokazuje, że największe oszczędności i wzrost produktywności wynikają z ograniczenia czasu traconego na składanie infrastruktury, governance i pipeline’ów zamiast na dostarczanie wartości biznesowej.