Security

Copilot Studio: 10 errores de configuración que detecta Defender

3 min de lectura

Resumen

Microsoft ha destacado 10 errores de configuración frecuentes en agentes de Copilot Studio, como la compartición excesiva, la falta de autenticación y el uso de solicitudes HTTP de riesgo, y ofrece consultas de Advanced Hunting en Microsoft Defender para detectarlos de forma temprana. Esto importa porque estos fallos pueden convertir agentes bien intencionados en puntos de exposición críticos para datos, identidad y operaciones, por lo que identificar y corregir estas configuraciones reduce significativamente el riesgo de seguridad.

¿Necesita ayuda con Security?Hablar con un experto

Introducción: por qué esto importa

Los agentes de Copilot Studio se están integrando rápidamente en los flujos de trabajo operativos—consultando datos, desencadenando acciones e interactuando con sistemas a escala. El Defender Security Research Team advierte que pequeñas decisiones de configuración bien intencionadas (compartición amplia, auth débil, acciones de riesgo) pueden convertirse silenciosamente en puntos de exposición de alto impacto. La buena noticia: Microsoft Defender puede ayudarte a detectar estas condiciones de forma temprana mediante Advanced Hunting Community Queries.

Novedades: 10 configuraciones incorrectas que conviene buscar

Microsoft publicó una “vista de una página” de los riesgos más comunes de agentes de Copilot Studio observados en entornos reales, junto con detecciones correspondientes en Microsoft Defender Advanced Hunting (Security portal → Advanced hunting → Queries → Community Queries → carpeta AI Agent).

Los riesgos clave destacados incluyen:

  • Compartición excesivamente amplia (compartido con toda la organización o grupos amplios): aumenta la superficie de ataque y el uso no intencionado.
  • No requiere autenticación: convierte un agente en un punto de entrada público/anónimo que puede exponer datos internos o lógica.
  • Acciones de HTTP Request de riesgo: uso de no-HTTPS, puertos no estándar o llamadas directas a endpoints que deberían gobernarse mediante conectores—eludiendo salvaguardas de políticas e identidad.
  • Rutas de exfiltración de datos basadas en email: agentes que pueden enviar email a entradas controladas por atacantes o buzones externos (especialmente peligroso con prompt injection).
  • Agentes, acciones o conexiones inactivos: agentes publicados “olvidados” y conexiones obsoletas crean acceso oculto y con privilegios.
  • Autenticación del autor (maker) en producción: rompe la separación de funciones y puede ejecutarse efectivamente con permisos elevados del maker.
  • Credenciales codificadas en temas/acciones: riesgo directo de filtración de credenciales.
  • Herramientas de Model Context Protocol (MCP) configuradas: pueden introducir rutas de acceso no documentadas e interacciones no deseadas con sistemas.
  • Orquestación generativa sin instrucciones: aumenta la probabilidad de deriva de comportamiento o acciones inseguras impulsadas por prompts.
  • Agentes huérfanos (sin propietario activo): gobernanza débil, sin responsable de mantenimiento y mayor riesgo de lógica desactualizada.

Impacto en administradores de TI y equipos de seguridad

Para administradores que gestionan Power Platform y la seguridad de Microsoft 365, la conclusión principal es que la postura de seguridad de los agentes ahora forma parte de la gobernanza de identidad y datos. Las configuraciones incorrectas pueden crear nuevas rutas de acceso que los inventarios tradicionales de aplicaciones, las suposiciones de acceso condicional o las políticas de conectores quizá no capturen por completo—especialmente cuando los makers crean agentes rápidamente.

Acciones / próximos pasos

  1. Ejecuta las Community Queries en Advanced Hunting de Defender (carpeta AI Agent) y establece una línea base de hallazgos entre entornos.
  2. Prioriza la corrección de: agentes sin autenticación, compartición a toda la organización, agentes con auth de maker y cualquier capacidad de email externo.
  3. Revisa el uso de HTTP Request y sustitúyelo por conectores gobernados cuando sea posible; aplica HTTPS y puertos estándar.
  4. Limpia activos inactivos/huérfanos: retira agentes/acciones no utilizados y rota/elimina conexiones obsoletas.
  5. Establece guardrails operativos: exige propiedad nominal, propósito documentado, conexiones de mínimo privilegio e instrucciones obligatorias para la orquestación generativa.

¿Necesita ayuda con Security?

Nuestros expertos pueden ayudarle a implementar y optimizar sus soluciones Microsoft.

Hablar con un experto

Manténgase actualizado sobre tecnologías Microsoft

Copilot StudioMicrosoft DefenderAdvanced HuntingPower PlatformAI security

Artículos relacionados

Security

Compromiso de la cadena de suministro de Trivy

Microsoft ha publicado orientación de detección, investigación y mitigación sobre el compromiso de la cadena de suministro de Trivy de marzo de 2026, que afectó al binario de Trivy y a GitHub Actions relacionados. El incidente es importante porque convirtió una herramienta de seguridad de CI/CD de confianza en un arma para robar credenciales de pipelines de compilación, entornos en la nube y sistemas de desarrolladores mientras aparentaba ejecutarse con normalidad.

Security

Gobernanza de agentes de AI para alinear la intención

Microsoft describe un modelo de gobernanza para agentes de AI que alinea la intención del usuario, del desarrollador, basada en roles y organizacional. El marco ayuda a las empresas a mantener los agentes útiles, seguros y en cumplimiento al definir límites de comportamiento y un orden claro de prioridad cuando surgen conflictos.

Security

Microsoft Defender predictive shielding frena ransomware GPO

Microsoft detalló un caso real de ransomware en el que predictive shielding de Defender detectó el abuso malicioso de Group Policy Object antes de que comenzara el cifrado. Al reforzar la propagación de GPO e interrumpir cuentas comprometidas, Defender bloqueó alrededor del 97 % de la actividad de cifrado intentada y evitó que cualquier dispositivo fuera cifrado mediante la ruta de entrega por GPO.

Security

Seguridad para Agentic AI de Microsoft en RSAC 2026

En RSAC 2026, Microsoft presentó una estrategia integral para asegurar la adopción empresarial de Agentic AI, con el anuncio de la disponibilidad general de Agent 365 el 1 de mayo como plano de control para gobernar, proteger y supervisar agentes de AI a escala. La noticia importa porque refuerza la visibilidad y gestión del riesgo de AI en toda la empresa mediante herramientas como Security Dashboard for AI y Shadow AI Detection, ayudando a reducir la sobreexposición de datos, controlar accesos y responder a nuevas amenazas.

Security

Microsoft lanza CTI-REALM open source para detección AI

Microsoft ha presentado CTI-REALM, un benchmark open source que evalúa si los agentes de IA pueden crear y validar detecciones de seguridad de extremo a extremo a partir de informes reales de inteligencia de amenazas, en lugar de limitarse a responder preguntas teóricas. Esto importa porque ofrece a los equipos SOC una forma más práctica de medir el valor operativo de la IA en ingeniería de detección, incluyendo pasos clave como mapeo MITRE ATT&CK, consultas KQL y reglas Sigma en entornos Linux, AKS y Azure.

Security

Zero Trust for AI de Microsoft: taller y arquitectura

Microsoft presentó Zero Trust for AI (ZT4AI), una guía y arquitectura que adapta los principios de Zero Trust a entornos de IA para proteger modelos, agentes, datos y decisiones automatizadas frente a riesgos como prompt injection y data poisoning. Además, actualizó su Zero Trust Workshop con un nuevo pilar de IA y cientos de controles, lo que importa porque da a los equipos de seguridad y TI un marco práctico para evaluar riesgos, coordinar áreas de negocio y desplegar controles de seguridad de IA de forma más estructurada.