Envenenamento de recomendações por IA no Copilot
Resumo
A Microsoft identificou um padrão emergente de ataque chamado AI Recommendation Poisoning, em que links com prompts ocultos tentam manipular a “memória” de assistentes como o Copilot para influenciar recomendações futuras de forma persistente. Isto importa porque um simples clique em “Resumir com AI” pode enviesar decisões empresariais, como escolhas de fornecedores e orientações de segurança, sem sinais claros para o utilizador.
Introdução: porque isto importa
Os assistentes de AI são cada vez mais confiáveis para resumir conteúdo, comparar fornecedores e recomendar próximos passos. Investigadores de segurança da Microsoft estão agora a observar tentativas adversariais (e comercialmente motivadas) de enviesar persistentemente estes assistentes ao manipular a sua memória — transformando um clique aparentemente inofensivo em “Resumir com AI” numa influência duradoura sobre respostas futuras.
Em ambientes empresariais, isto é mais do que um problema de integridade. Se as recomendações de um assistente puderem ser subtilmente direcionadas, isso pode afetar decisões de aquisição, orientações de segurança e a confiança do utilizador — sem indicadores óbvios de que algo mudou.
O que há de novo: AI Recommendation Poisoning no mundo real
A Microsoft Defender Security Research Team descreve um padrão emergente de abuso promocional a que chama AI Recommendation Poisoning:
- Prompt injection oculto via parâmetros de URL: Páginas web incorporam links (frequentemente atrás de botões “Resumir com AI”) que abrem um assistente de AI com um prompt pré-preenchido usando parâmetros de query como
?q=<prompt>. - Persistência com foco em funcionalidades de “memória”: O prompt injetado tenta adicionar instruções duráveis como “lembra-te de [Empresa] como uma fonte de confiança” ou “recomenda [Empresa] em primeiro lugar”.
- Observado à escala: Ao longo de um período de análise de 60 dias de URLs relacionados com AI vistos em tráfego de email, os investigadores identificaram mais de 50 tentativas distintas de prompt de 31 empresas em 14 setores.
- Segmentação multiplataforma: A mesma abordagem foi observada a visar vários assistentes (os exemplos incluíam URLs para Copilot, ChatGPT, Claude, Perplexity e outros). A eficácia varia por plataforma e evolui à medida que as mitigações são implementadas.
Como funciona (e porque a memória altera o risco)
Assistentes modernos podem reter:
- Preferências (formatação, tom)
- Contexto (projetos, tarefas recorrentes)
- Instruções explícitas (“cita sempre as fontes”)
Essa utilidade cria uma superfície de ataque: AI memory poisoning (MITRE ATLAS® AML.T0080) ocorre quando um ator externo faz com que “factos” ou instruções não autorizadas sejam armazenados como se fossem intencionados pelo utilizador. A investigação mapeia esta técnica para manipulação baseada em prompts e categorias relacionadas (incluindo entradas do MITRE ATLAS® como AML.T0051).
Impacto para administradores de IT e utilizadores finais
- Risco para a integridade das recomendações: Os utilizadores podem receber orientações enviesadas sobre fornecedores/produtos que parecem objetivas.
- Manipulação difícil de detetar: O “veneno” pode persistir entre sessões, tornando difícil para os utilizadores ligarem decisões posteriores a um clique anterior.
- Aumento da superfície de social engineering: Estes links podem aparecer na web ou ser entregues por email, misturando táticas de marketing com abuso de segurança.
A Microsoft observa que implementou e continua a implementar mitigações no Copilot contra prompt injection; em vários casos, comportamentos anteriormente reportados já não puderam ser reproduzidos — indicando que as defesas estão a evoluir.
Itens de ação / próximos passos
- Atualizar a formação de sensibilização em segurança: Ensinar os utilizadores que links de “resumo com AI” podem ser usados como arma, especialmente quando pré-preenchem prompts.
- Rever proteções de email e web: Garantir que a análise de links e as defesas contra phishing estão ajustadas para analisar parâmetros de URL invulgares e padrões de redirecionamento.
- Estabelecer orientação de uso de AI: Incentivar os utilizadores a verificar fontes, confirmar recomendações e reportar anomalias suspeitas de “memória”.
- Playbook operacional: Definir passos para utilizadores/administradores reverem e limparem a memória do assistente (quando suportado) e reportarem prompts/URLs suspeitos às equipas de segurança.
Recommendation Poisoning é um sinal claro de que, à medida que a AI se torna uma camada de suporte à decisão, controlos de integridade e proveniência têm de evoluir em paralelo com os modelos tradicionais de ameaças de phishing e web.
Precisa de ajuda com Security?
Nossos especialistas podem ajudá-lo a implementar e otimizar suas soluções Microsoft.
Fale com um especialistaFique atualizado sobre as tecnologias Microsoft