Security

Envenenamento de recomendações por IA no Copilot

3 min de leitura

Resumo

A Microsoft identificou um padrão emergente de ataque chamado AI Recommendation Poisoning, em que links com prompts ocultos tentam manipular a “memória” de assistentes como o Copilot para influenciar recomendações futuras de forma persistente. Isto importa porque um simples clique em “Resumir com AI” pode enviesar decisões empresariais, como escolhas de fornecedores e orientações de segurança, sem sinais claros para o utilizador.

Precisa de ajuda com Security?Fale com um especialista

Introdução: porque isto importa

Os assistentes de AI são cada vez mais confiáveis para resumir conteúdo, comparar fornecedores e recomendar próximos passos. Investigadores de segurança da Microsoft estão agora a observar tentativas adversariais (e comercialmente motivadas) de enviesar persistentemente estes assistentes ao manipular a sua memória — transformando um clique aparentemente inofensivo em “Resumir com AI” numa influência duradoura sobre respostas futuras.

Em ambientes empresariais, isto é mais do que um problema de integridade. Se as recomendações de um assistente puderem ser subtilmente direcionadas, isso pode afetar decisões de aquisição, orientações de segurança e a confiança do utilizador — sem indicadores óbvios de que algo mudou.

O que há de novo: AI Recommendation Poisoning no mundo real

A Microsoft Defender Security Research Team descreve um padrão emergente de abuso promocional a que chama AI Recommendation Poisoning:

  • Prompt injection oculto via parâmetros de URL: Páginas web incorporam links (frequentemente atrás de botões “Resumir com AI”) que abrem um assistente de AI com um prompt pré-preenchido usando parâmetros de query como ?q=<prompt>.
  • Persistência com foco em funcionalidades de “memória”: O prompt injetado tenta adicionar instruções duráveis como “lembra-te de [Empresa] como uma fonte de confiança” ou “recomenda [Empresa] em primeiro lugar”.
  • Observado à escala: Ao longo de um período de análise de 60 dias de URLs relacionados com AI vistos em tráfego de email, os investigadores identificaram mais de 50 tentativas distintas de prompt de 31 empresas em 14 setores.
  • Segmentação multiplataforma: A mesma abordagem foi observada a visar vários assistentes (os exemplos incluíam URLs para Copilot, ChatGPT, Claude, Perplexity e outros). A eficácia varia por plataforma e evolui à medida que as mitigações são implementadas.

Como funciona (e porque a memória altera o risco)

Assistentes modernos podem reter:

  • Preferências (formatação, tom)
  • Contexto (projetos, tarefas recorrentes)
  • Instruções explícitas (“cita sempre as fontes”)

Essa utilidade cria uma superfície de ataque: AI memory poisoning (MITRE ATLAS® AML.T0080) ocorre quando um ator externo faz com que “factos” ou instruções não autorizadas sejam armazenados como se fossem intencionados pelo utilizador. A investigação mapeia esta técnica para manipulação baseada em prompts e categorias relacionadas (incluindo entradas do MITRE ATLAS® como AML.T0051).

Impacto para administradores de IT e utilizadores finais

  • Risco para a integridade das recomendações: Os utilizadores podem receber orientações enviesadas sobre fornecedores/produtos que parecem objetivas.
  • Manipulação difícil de detetar: O “veneno” pode persistir entre sessões, tornando difícil para os utilizadores ligarem decisões posteriores a um clique anterior.
  • Aumento da superfície de social engineering: Estes links podem aparecer na web ou ser entregues por email, misturando táticas de marketing com abuso de segurança.

A Microsoft observa que implementou e continua a implementar mitigações no Copilot contra prompt injection; em vários casos, comportamentos anteriormente reportados já não puderam ser reproduzidos — indicando que as defesas estão a evoluir.

Itens de ação / próximos passos

  • Atualizar a formação de sensibilização em segurança: Ensinar os utilizadores que links de “resumo com AI” podem ser usados como arma, especialmente quando pré-preenchem prompts.
  • Rever proteções de email e web: Garantir que a análise de links e as defesas contra phishing estão ajustadas para analisar parâmetros de URL invulgares e padrões de redirecionamento.
  • Estabelecer orientação de uso de AI: Incentivar os utilizadores a verificar fontes, confirmar recomendações e reportar anomalias suspeitas de “memória”.
  • Playbook operacional: Definir passos para utilizadores/administradores reverem e limparem a memória do assistente (quando suportado) e reportarem prompts/URLs suspeitos às equipas de segurança.

Recommendation Poisoning é um sinal claro de que, à medida que a AI se torna uma camada de suporte à decisão, controlos de integridade e proveniência têm de evoluir em paralelo com os modelos tradicionais de ameaças de phishing e web.

Precisa de ajuda com Security?

Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.

Fale com um especialista

Fique atualizado sobre as tecnologias Microsoft

AI securityCopilotprompt injectionmemory poisoningMicrosoft Defender

Posts relacionados

Security

Trivy Supply Chain Compromise: Defender Guidance

Microsoft has published detection, investigation, and mitigation guidance for the March 2026 Trivy supply chain compromise that affected the Trivy binary and related GitHub Actions. The incident matters because it weaponized trusted CI/CD security tooling to steal credentials from build pipelines, cloud environments, and developer systems while appearing to run normally.

Security

AI Agent Governance: Aligning Intent for Security

Microsoft outlines a governance model for AI agents that aligns user, developer, role-based, and organizational intent. The framework helps enterprises keep agents useful, secure, and compliant by defining behavioral boundaries and a clear order of precedence when conflicts arise.

Security

Microsoft Defender Predictive Shielding Stops GPO Ransomware

Microsoft detailed a real-world ransomware case in which Defender’s predictive shielding detected malicious Group Policy Object abuse before encryption began. By hardening GPO propagation and disrupting compromised accounts, Defender blocked about 97% of attempted encryption activity and prevented any devices from being encrypted through the GPO delivery path.

Security

Microsoft Agentic AI Security Tools Unveiled at RSAC

At RSAC 2026, Microsoft introduced a broader security strategy for enterprise AI, led by Agent 365, a new control plane for governing and protecting AI agents that will reach general availability on May 1. The company also announced expanded AI risk visibility and identity protections across Defender, Entra, Purview, Intune, and new shadow AI detection tools, signaling that securing AI usage is becoming a core part of enterprise security operations as adoption accelerates.

Security

Microsoft CTI-REALM Benchmarks AI Detection Engineering

Microsoft has introduced CTI-REALM, an open-source benchmark designed to test whether AI agents can actually perform detection engineering tasks end to end, from interpreting threat intelligence reports to generating and refining KQL and Sigma detection rules. This matters because it gives security teams a more realistic way to evaluate AI for SOC operations, focusing on measurable operational outcomes across real environments instead of simple cybersecurity question answering.

Security

Microsoft Zero Trust for AI: Workshop and Architecture

Microsoft has introduced Zero Trust for AI guidance, adding an AI-focused pillar to its Zero Trust Workshop and expanding its assessment tool with new Data and Network pillars. The update matters because it gives enterprises a structured way to secure AI systems against risks like prompt injection, data poisoning, and excessive access while aligning security, IT, and business teams around nearly 700 controls.