Security

Agentes de AI: observabilidade e Zero Trust na empresa

3 min de leitura

Resumo

O relatório Cyber Pulse da Microsoft alerta que os agentes de AI já são amplamente usados nas empresas — inclusive fora das equipas de desenvolvimento — mas muitas organizações não conseguem inventariar, governar nem proteger estes sistemas. Isto importa porque o crescimento de agentes autónomos e de “shadow AI” aumenta os riscos de segurança, acesso indevido a dados e falhas de auditoria, tornando a observabilidade e uma abordagem Zero Trust essenciais para controlo empresarial.

Precisa de ajuda com Security?Fale com um especialista

Introdução: por que isto importa agora

Os agentes de AI já não são experimentais — estão integrados em fluxos de trabalho diários nas áreas de vendas, finanças, operações de segurança e apoio ao cliente. O mais recente relatório Cyber Pulse da Microsoft destaca uma lacuna crítica: muitas organizações estão a adotar agentes mais depressa do que conseguem inventariá-los, governá-los e protegê-los. Para as equipas de IT e de segurança, o desafio imediato é a visibilidade — porque não é possível proteger (ou auditar) aquilo que não se consegue ver.

O que há de novo / principais conclusões do relatório

Os agentes de AI são mainstream — e não se limitam a developers

  • 80%+ das organizações da Fortune 500 estão a usar agentes de AI ativos, muitas vezes criados com ferramentas low-code/no-code.
  • A adoção abrange setores (com destaque para software/tecnologia, indústria, serviços financeiros e retalho) e regiões globais.
  • Cada vez mais, os agentes operam em modos autónomos, executando ações com envolvimento humano mínimo — alterando o perfil de risco face a aplicações tradicionais.

O ponto cego emergente: “shadow AI”

A Microsoft observa que muitos líderes não conseguem responder a questões básicas:

  • Quantos agentes existem em toda a organização?
  • Quem é o responsável por eles?
  • A que dados e sistemas acedem?
  • Quais são autorizados vs. não autorizados?

Isto não é teórico. O relatório refere que 29% dos colaboradores usaram agentes de AI não autorizados para tarefas de trabalho — introduzindo novos caminhos para exposição de dados, violações de políticas e abuso de permissões herdadas.

Princípios Zero Trust — agora aplicados a utilizadores não humanos em escala

O relatório enfatiza a aplicação consistente de princípios Zero Trust aos agentes:

  • Least privilege access (os agentes recebem apenas o que precisam)
  • Explicit verification (validar identidade e contexto para pedidos de acesso)
  • Assume compromise (conceber para falha e contenção rápida)

A observabilidade vem primeiro: cinco capacidades obrigatórias

A Microsoft descreve cinco capacidades essenciais para construir verdadeira observabilidade e governança para agentes de AI:

  1. Registry: um inventário/fonte de verdade centralizado para todos os agentes (incluindo terceiros e shadow)
  2. Access control: controlos orientados por identidade e políticas, aplicando de forma consistente least privilege
  3. Visualization: dashboards/telemetria para compreender comportamento, dependências e risco
  4. Interoperability: governança consistente entre ecossistemas Microsoft, open-source e de terceiros
  5. Security: proteções para detetar uso indevido, drift e comprometimento precocemente

Impacto para administradores de IT e utilizadores finais

  • A identidade torna-se o control plane para agentes: tratar agentes como colaboradores ou service accounts, com acesso governado e responsabilização.
  • A pressão de compliance e auditoria aumenta, especialmente em setores regulados (finanças, saúde, setor público).
  • Os utilizadores finais continuarão a adotar ferramentas se não existirem opções autorizadas — tornando essencial combinar capacitação com guardrails.

Itens de ação / próximos passos

  • Estabelecer de imediato uma abordagem de inventário/registry de agentes (começar por plataformas autorizadas e expandir para descoberta de utilização não autorizada).
  • Definir ownership e lifecycle (criação, aprovação, controlo de alterações, desativação) para agentes — governança não é o mesmo que segurança.
  • Aplicar least privilege às identidades dos agentes (rever caminhos de acesso, secrets, connectors e o âmbito dos dados).
  • Implementar monitorização e telemetria para detetar comportamento anómalo e access drift.
  • Alinhar uma equipa multifuncional (IT, segurança, jurídico, compliance, RH, responsáveis de negócio) para tratar o risco de AI como risco empresarial.

Precisa de ajuda com Security?

Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.

Fale com um especialista

Fique atualizado sobre as tecnologias Microsoft

Zero TrustAI agentsgovernanceobservabilityrisk management

Posts relacionados

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.