Azure

Azure PostgreSQL AI-ready: Foundry, vector search e PG18

3 min di lettura

Riepilogo

Microsoft ha annunciato aggiornamenti che rendono Azure Database for PostgreSQL più adatto ai carichi AI, con provisioning diretto da VS Code, integrazione con Microsoft Entra ID e Azure Monitor, supporto a GitHub Copilot e nuove capacità in-database tramite Microsoft Foundry per invocare LLM e generare embedding da SQL. La novità è importante perché semplifica lo sviluppo di applicazioni AI su PostgreSQL, riducendo la complessità delle pipeline esterne e migliorando velocità, sicurezza e supporto per scenari di vector search e analytics moderni.

Hai bisogno di aiuto con Azure?Parla con un esperto

Introduzione

PostgreSQL continua a essere una scelta di riferimento per lo sviluppo di applicazioni moderne, e i carichi di lavoro AI stanno aumentando le richieste sul livello dati: retrieval a bassa latenza, ricerca vettoriale, controlli di accesso sicuri e analytics in tempo reale—senza pipeline complesse. Gli ultimi aggiornamenti di Microsoft posizionano Azure Database for PostgreSQL come un servizio gestito più pronto per l’AI, e al tempo stesso presentano in anteprima Azure HorizonDB per carichi di lavoro di nuova generazione, scale-out e compatibili con PostgreSQL.

Novità

1) Un’esperienza sviluppatore più rapida e integrata

  • L’estensione PostgreSQL per VS Code ora può effettuare il provisioning di istanze Azure PostgreSQL sicure e completamente gestite direttamente dall’IDE, riducendo la configurazione guidata dal portale.
  • Le istanze provisionate includono supporto integrato per autenticazione Microsoft Entra ID e Azure Monitor.
  • GitHub Copilot è pensato per aiutare gli sviluppatori a scrivere, ottimizzare e risolvere problemi di SQL usando il linguaggio naturale, con consapevolezza di schema e pattern di query.

2) AI in-database tramite Microsoft Foundry

  • Azure Database for PostgreSQL ora supporta l’integrazione con Microsoft Foundry, consentendo agli sviluppatori di invocare LLM pre-provisionati da SQL per scenari come classificazione del testo e generazione di embedding.
  • Per i carichi vettoriali, viene evidenziata l’indicizzazione vettoriale DiskANN per una similarity search ad alte prestazioni, abbinata a semantic ranking per una migliore pertinenza negli scenari di retrieval (ad esempio, RAG, raccomandazioni, interfacce in linguaggio naturale).

3) Workflow agentic con MCP

  • Un nuovo server Model Context Protocol (MCP) per PostgreSQL consente di connettere PostgreSQL al framework di agent di Foundry con “pochi clic e permessi”, permettendo agli agent di ragionare su dati strutturati e orchestrare chiamate LLM—restando all’interno del modello di sicurezza e governance di Azure.

4) Analytics in tempo reale e accesso a Parquet

  • Tra le opzioni per mantenere aggiornate le analytics, c’è il mirroring dei dati operativi in Microsoft Fabric per analytics quasi in tempo reale con impatto minimo sul database primario.
  • L’Azure Storage Extension aggiunge supporto a lettura/scrittura Parquet in Azure Storage direttamente da PostgreSQL usando SQL, riducendo la complessità ETL.

5) Aggiornamenti su prestazioni e scalabilità

  • PostgreSQL 18 è ora Generally Available su Azure, con miglioramenti evidenziati su prestazioni I/O, vacuuming e query planning.
  • I nuovi compute SKU V6 puntano a throughput più elevato e latenza più bassa.
  • Gli Elastic Clusters abilitano la scalabilità orizzontale per carichi di lavoro multi-tenant e ad alto volume.

Impatto su IT admin e team di piattaforma

  • Aspettatevi un allineamento più stretto tra strumenti per sviluppatori (VS Code/Copilot) e governance di piattaforma (Entra ID, monitoraggio), che può migliorare l’adozione—ma aumenta anche la necessità di pattern di deployment standardizzati.
  • L’AI in-database e l’indicizzazione vettoriale possono spostare carichi di lavoro da vector store/servizi separati a PostgreSQL, modificando dimensionamento, test prestazionali e modelli di costo.
  • Il mirroring su Fabric e l’accesso a Parquet possono ridurre la proliferazione di pipeline, ma richiedono confini chiari per data governance, retention e accesso.

Action items / prossimi passi

  1. Rivedere la strategia di identità e accesso: validare i pattern di autenticazione Entra ID, i ruoli least-privilege e i requisiti di auditing per PostgreSQL.
  2. Eseguire un pilot sui pattern di AI retrieval: testare DiskANN/indicizzazione vettoriale e semantic ranking con dati rappresentativi e target di latenza.
  3. Aggiornare i runbook operativi: includere considerazioni su PostgreSQL 18, baseline di monitoraggio e linee guida di scalabilità (SKU V6, Elastic Clusters).
  4. Valutare l’architettura dati: verificare se il mirroring su Fabric o Parquet-in-Postgres riduce la complessità ETL nel vostro ambiente.
  5. Monitorare HorizonDB: se avete requisiti di latenza ultra-bassa o scale-out, valutate l’adesione alla private preview quando disponibile tramite il vostro account team Microsoft.

Hai bisogno di aiuto con Azure?

I nostri esperti possono aiutarti a implementare e ottimizzare le tue soluzioni Microsoft.

Parla con un esperto

Resta aggiornato sulle tecnologie Microsoft

Azure Database for PostgreSQLMicrosoft Foundryvector searchPostgreSQL 18VS Code

Articoli correlati

Azure

Microsoft The Shift podcast: sfide reali dell’agentic AI

Microsoft ha lanciato The Shift, una nuova serie podcast che dedica otto episodi alle principali sfide dell’agentic AI in ambito Azure, tra cui dati, coordinamento tra agenti, context engineering, piattaforme come Postgres e Fabric, e governance. La notizia è rilevante perché segnala che gli agent AI stanno passando da semplice funzionalità di prodotto a tema architetturale enterprise, richiedendo ai team IT di ripensare stack, processi e controlli operativi.

Azure

Azure Agentic AI for Regulated Cloud Modernization

Microsoft says Azure combined with agentic AI can help regulated industries move beyond slow, one-time cloud migrations toward continuous modernization, balancing legacy infrastructure, compliance demands, and mission-critical workloads. The update matters because it frames cloud adoption not just as a cost-saving measure, but as a foundation for operational agility, stronger resilience, governance and compliance, and better AI readiness.

Azure

Fireworks AI su Microsoft Foundry: inferenza open su Azure

Microsoft ha annunciato la public preview di Fireworks AI su Microsoft Foundry, portando in Azure un’opzione per l’inferenza di modelli open ad alto throughput e bassa latenza tramite un unico endpoint gestito. La novità conta perché combina velocità e flessibilità dei modelli open con governance, sicurezza e operatività enterprise di Azure, semplificando il passaggio dalla sperimentazione alla produzione anche con scenari BYOW e deployment serverless.

Azure

Azure Copilot agent per migrazione e modernizzazione AI

Microsoft ha annunciato nuovi agent AI in Azure Copilot e GitHub Copilot per accelerare la migrazione e la modernizzazione di infrastrutture, database, applicazioni e codice, con il nuovo Azure Copilot migration agent e il GitHub Copilot modernization agent ora in public preview. La novità conta perché collega discovery, assessment, pianificazione e deployment in un flusso end-to-end più automatizzato, aiutando le organizzazioni a ridurre complessità, costi e tempi nei progetti di adozione dell’AI su larga scala.

Azure

Azure IaaS Resource Center: guida per infrastrutture resilienti

Microsoft ha lanciato l’Azure IaaS Resource Center, un hub unico con linee guida, demo, risorse architetturali e best practice per progettare e gestire infrastrutture Azure più resilienti, performanti ed efficienti nei costi. La novità è rilevante perché rafforza l’idea di Azure IaaS come piattaforma integrata per workload tradizionali, distribuiti e AI, aiutando i team IT a migliorare continuità operativa, sicurezza e ottimizzazione dell’infrastruttura.

Azure

Microsoft Foundry ROI 327%: studio Forrester AI

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, recover its investment in six months, and realize $49.5 million in quantified benefits through higher developer productivity and lower infrastructure costs. This matters for Azure and IT leaders because it reinforces the value of a unified AI platform in reducing the hidden operational overhead of enterprise AI, helping teams move faster from infrastructure setup to business outcomes.