Azure

Azure PostgreSQL para IA com Foundry e Pesquisa Vetorial

3 min de leitura

Resumo

A Microsoft anunciou novas capacidades no Azure Database for PostgreSQL para acelerar aplicações de IA, incluindo provisionamento direto pelo VS Code, integração com Microsoft Entra ID e Azure Monitor, além da possibilidade de invocar modelos do Microsoft Foundry diretamente em SQL para tarefas como classificação de texto e geração de embeddings. Isto é relevante porque simplifica a criação de soluções com pesquisa vetorial, baixa latência e segurança integrada, reduzindo a complexidade operacional e aproximando o PostgreSQL gerido das necessidades de cargas de trabalho modernas de IA.

Precisa de ajuda com Azure?Fale com um especialista

Introdução

O PostgreSQL continua a ser uma escolha padrão para o desenvolvimento de aplicações modernas, e as cargas de trabalho de IA estão a aumentar as exigências na camada de dados: recuperação de baixa latência, pesquisa vetorial, controlos de acesso seguros e análises em tempo real — sem pipelines complexos. As mais recentes atualizações da Microsoft posicionam o Azure Database for PostgreSQL como um serviço gerido mais preparado para IA, ao mesmo tempo que colocam em preview o Azure HorizonDB para cargas de trabalho de próxima geração, com escala horizontal e compatíveis com PostgreSQL.

O que há de novo

1) Uma experiência de developer mais rápida e mais integrada

  • A extensão PostgreSQL do VS Code pode agora provisionar instâncias seguras e totalmente geridas do Azure PostgreSQL diretamente a partir do IDE, reduzindo a configuração dependente do portal.
  • As instâncias provisionadas incluem suporte incorporado para autenticação com Microsoft Entra ID e Azure Monitor.
  • O GitHub Copilot é posicionado para ajudar developers a escrever, otimizar e resolver problemas de SQL usando linguagem natural, com consciência do schema e dos padrões de queries.

2) IA na base de dados via Microsoft Foundry

  • O Azure Database for PostgreSQL suporta agora integração com Microsoft Foundry, permitindo que developers invoquem LLMs pré-provisionados a partir de SQL para cenários como classificação de texto e geração de embeddings.
  • Para workloads vetoriais, é destacada a indexação vetorial DiskANN para pesquisa de similaridade de alto desempenho, combinada com semantic ranking para melhor relevância em cenários de retrieval (por exemplo, RAG, recomendações, interfaces em linguagem natural).

3) Workflows agentic usando MCP

  • Um novo servidor Model Context Protocol (MCP) para PostgreSQL permite ligar o PostgreSQL ao framework de agentes do Foundry com “poucos cliques e permissões”, permitindo que agentes raciocinem sobre dados estruturados e orquestrem chamadas a LLM — mantendo-se dentro do modelo de segurança e governance do Azure.

4) Análises em tempo real e acesso a Parquet

  • As opções para manter as análises atualizadas incluem espelhar dados operacionais no Microsoft Fabric para análises quase em tempo real com impacto mínimo na base de dados primária.
  • A Azure Storage Extension adiciona suporte de leitura/escrita de Parquet no Azure Storage diretamente a partir do PostgreSQL usando SQL, reduzindo a complexidade de ETL.

5) Atualizações de desempenho e escala

  • O PostgreSQL 18 está agora geralmente disponível no Azure, com melhorias destacadas no desempenho de I/O, vacuuming e planeamento de queries.
  • Novos SKUs de compute V6 visam maior throughput e menor latência.
  • Elastic Clusters permitem scaling horizontal para workloads multi-tenant e de alto volume.

Impacto para admins de IT e equipas de plataforma

  • Espere um alinhamento mais forte entre tooling de developers (VS Code/Copilot) e governance de plataforma (Entra ID, monitorização), o que pode melhorar a adoção — mas também aumenta a necessidade de padrões de deployment padronizados.
  • IA na base de dados e indexação vetorial podem deslocar workloads de vector stores/serviços separados para o PostgreSQL, alterando modelos de dimensionamento, testes de desempenho e custos.
  • O mirroring para Fabric e o acesso a Parquet podem reduzir a proliferação de pipelines, mas exigem limites claros de governance, retenção e acesso a dados.

Itens de ação / próximos passos

  1. Rever a estratégia de identidade e acesso: validar padrões de autenticação com Entra ID, funções de menor privilégio e requisitos de auditoria para PostgreSQL.
  2. Pilotar padrões de AI retrieval: testar DiskANN/indexação vetorial e semantic ranking com dados representativos e metas de latência.
  3. Atualizar runbooks operacionais: incluir considerações do PostgreSQL 18, baselines de monitorização e orientação de scaling (SKUs V6, Elastic Clusters).
  4. Avaliar a arquitetura de dados: avaliar se o mirroring para Fabric ou Parquet-in-Postgres reduz a complexidade de ETL no seu ambiente.
  5. Acompanhar o HorizonDB: se tiver requisitos de latência ultra-baixa ou de escala horizontal, considere aderir ao private preview quando estiver disponível via a sua equipa de conta Microsoft.

Precisa de ajuda com Azure?

Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.

Fale com um especialista

Fique atualizado sobre as tecnologias Microsoft

Azure Database for PostgreSQLMicrosoft Foundryvector searchPostgreSQL 18VS Code

Posts relacionados

Azure

Microsoft The Shift Podcast on Agentic AI Challenges

Microsoft has launched a new season of The Shift podcast focused on agentic AI, with eight weekly episodes exploring how AI agents use data, coordinate with each other, and depend on platforms like Postgres, Microsoft Fabric, and OneLake. The series matters because it highlights that deploying agents in enterprises is not just about models—it requires rethinking architecture, governance, security, and IT workflows across the full Azure and data stack.

Azure

Azure Agentic AI for Regulated Industry Modernization

Microsoft says Azure combined with agentic AI can help regulated industries modernize legacy systems faster by automating workload assessment, migration, and ongoing operations while maintaining compliance. The update matters because it positions cloud migration as more than a cost-saving exercise: for sectors like healthcare and other highly regulated industries, it is increasingly essential for resilience, governance, and readiness to deploy AI at scale.

Azure

Fireworks AI on Microsoft Foundry for Azure Inference

Microsoft has launched a public preview of Fireworks AI on Microsoft Foundry, bringing high-throughput, low-latency open-model inference to Azure through a single managed endpoint. It matters because enterprises can now access models like DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, and MiniMax M2.5 with Azure’s governance, serverless or provisioned deployment options, and bring-your-own-weights support—making it easier to move open-model AI from experimentation into production.

Azure

Azure Copilot Migration Agent for App Modernization

Microsoft has introduced new public preview modernization agents in Azure Copilot and GitHub Copilot to help organizations automate migration and application transformation across discovery, assessment, planning, deployment, and code upgrades. The announcement matters because it aims to turn complex, fragmented modernization work into a coordinated AI-assisted workflow, helping enterprises move legacy infrastructure and applications to Azure faster and with clearer cost, dependency, and prioritization insights.

Azure

Azure IaaS Resource Center for Resilient Infrastructure

Microsoft has introduced the Azure IaaS Resource Center, a centralized hub for infrastructure teams to find design guidance, demos, architecture resources, and best practices for compute, storage, and networking. The launch matters because it reinforces Azure IaaS as a unified platform for building resilient, high-performance, and cost-optimized infrastructure, helping organizations better support everything from traditional business apps to AI workloads.

Azure

Microsoft Foundry ROI Study Shows 327% Enterprise AI Gains

A Forrester Total Economic Impact study commissioned around Microsoft Foundry found that a modeled enterprise could achieve 327% ROI over three years, break even in about six months, and realize $49.5 million in benefits from productivity and infrastructure savings. The results matter because they highlight how much enterprise AI costs are driven by developer time and fragmented tooling, suggesting that a unified platform like Foundry can help IT teams accelerate AI delivery while improving governance and efficiency.