Security

Agentes de IA: observabilidad y Zero Trust ya

3 min de lectura

Resumen

El informe Cyber Pulse de Microsoft advierte que los agentes de IA ya están ampliamente desplegados en grandes empresas —muchos creados con herramientas low-code/no-code y operando de forma autónoma—, pero su adopción está superando la capacidad de inventariarlos, gobernarlos y protegerlos. Esto importa porque el auge del “shadow AI” deja a los equipos de IT y seguridad sin visibilidad sobre quién usa estos agentes, qué datos tocan y qué acciones ejecutan, haciendo urgente aplicar observabilidad y un enfoque Zero Trust.

¿Necesita ayuda con Security?Hablar con un experto

Introducción: por qué esto importa ahora

Los agentes de AI ya no son experimentales: están integrados en los flujos de trabajo diarios en ventas, finanzas, operaciones de seguridad y atención al cliente. El informe más reciente Cyber Pulse de Microsoft destaca una brecha crítica: muchas organizaciones están adoptando agentes más rápido de lo que pueden inventariarlos, gobernarlos y protegerlos. Para los equipos de IT y seguridad, el desafío inmediato es la visibilidad, porque no se puede proteger (ni auditar) lo que no se puede ver.

Qué hay de nuevo / conclusiones clave del informe

Los agentes de AI son algo generalizado y no se limitan a los desarrolladores

  • Más del 80% de las organizaciones Fortune 500 están usando agentes de AI activos, a menudo creados con herramientas low-code/no-code.
  • La adopción abarca industrias (en particular software/tecnología, manufactura, servicios financieros y retail) y regiones globales.
  • Cada vez más, los agentes se ejecutan en modos autónomos, realizando acciones con mínima intervención humana, lo que cambia el perfil de riesgo en comparación con las aplicaciones tradicionales.

El punto ciego emergente: “shadow AI”

Microsoft señala que muchos líderes no pueden responder preguntas básicas:

  • ¿Cuántos agentes existen en toda la empresa?
  • ¿Quién es el propietario?
  • ¿A qué datos y sistemas acceden?
  • ¿Cuáles están autorizados vs. no autorizados?

Esto no es teórico. El informe cita que el 29% de los empleados ha usado agentes de AI no autorizados para tareas laborales, introduciendo nuevas vías de exposición de datos, violaciones de políticas y abuso de permisos heredados.

Principios de Zero Trust: ahora aplicados a usuarios no humanos a escala

El informe enfatiza aplicar de forma consistente los principios establecidos de Zero Trust a los agentes:

  • Acceso con privilegio mínimo (los agentes obtienen solo lo que necesitan)
  • Verificación explícita (validar identidad y contexto para las solicitudes de acceso)
  • Asumir el compromiso (diseñar para la brecha y la contención rápida)

La observabilidad es lo primero: cinco capacidades requeridas

Microsoft describe cinco capacidades fundamentales para construir observabilidad y gobernanza reales para agentes de AI:

  1. Registro: un inventario centralizado/fuente de verdad para todos los agentes (incluidos los de terceros y shadow)
  2. Control de acceso: controles impulsados por identidad y políticas, aplicando de forma consistente el privilegio mínimo
  3. Visualización: paneles/telemetría para comprender comportamiento, dependencias y riesgo
  4. Interoperabilidad: gobernanza consistente en ecosistemas de Microsoft, open-source y de terceros
  5. Seguridad: protecciones para detectar el uso indebido, la deriva y el compromiso de forma temprana

Impacto en administradores de IT y usuarios finales

  • La identidad se convierte en el plano de control para los agentes: trate a los agentes como empleados o cuentas de servicio con acceso gobernado y responsabilidad.
  • Aumenta la presión de cumplimiento y auditoría, especialmente en sectores regulados (finanzas, salud, sector público).
  • Los usuarios finales seguirán adoptando herramientas si no hay opciones autorizadas disponibles, por lo que la habilitación más barandillas (guardrails) es esencial.

Acciones / próximos pasos

  • Establezca de inmediato un enfoque de inventario/registro de agentes (empiece por las plataformas autorizadas y amplíe hacia el descubrimiento del uso no autorizado).
  • Defina la propiedad y el ciclo de vida (creación, aprobación, control de cambios, retiro) para los agentes: la gobernanza no es lo mismo que la seguridad.
  • Aplique privilegio mínimo para las identidades de agentes (revise rutas de acceso, secretos, conectores y alcance de datos).
  • Implemente monitoreo y telemetría para detectar comportamientos anómalos y deriva de acceso.
  • Alinee a un equipo multifuncional (IT, seguridad, legal, cumplimiento, RR. HH., dueños del negocio) para tratar el riesgo de AI como riesgo empresarial.

¿Necesita ayuda con Security?

Nuestros expertos pueden ayudarle a implementar y optimizar sus soluciones Microsoft.

Hablar con un experto

Manténgase actualizado sobre tecnologías Microsoft

Zero TrustAI agentsgovernanceobservabilityrisk management

Artículos relacionados

Security

Compromiso de la cadena de suministro de Trivy

Microsoft ha publicado orientación de detección, investigación y mitigación sobre el compromiso de la cadena de suministro de Trivy de marzo de 2026, que afectó al binario de Trivy y a GitHub Actions relacionados. El incidente es importante porque convirtió una herramienta de seguridad de CI/CD de confianza en un arma para robar credenciales de pipelines de compilación, entornos en la nube y sistemas de desarrolladores mientras aparentaba ejecutarse con normalidad.

Security

Gobernanza de agentes de AI para alinear la intención

Microsoft describe un modelo de gobernanza para agentes de AI que alinea la intención del usuario, del desarrollador, basada en roles y organizacional. El marco ayuda a las empresas a mantener los agentes útiles, seguros y en cumplimiento al definir límites de comportamiento y un orden claro de prioridad cuando surgen conflictos.

Security

Microsoft Defender predictive shielding frena ransomware GPO

Microsoft detalló un caso real de ransomware en el que predictive shielding de Defender detectó el abuso malicioso de Group Policy Object antes de que comenzara el cifrado. Al reforzar la propagación de GPO e interrumpir cuentas comprometidas, Defender bloqueó alrededor del 97 % de la actividad de cifrado intentada y evitó que cualquier dispositivo fuera cifrado mediante la ruta de entrega por GPO.

Security

Seguridad para Agentic AI de Microsoft en RSAC 2026

En RSAC 2026, Microsoft presentó una estrategia integral para asegurar la adopción empresarial de Agentic AI, con el anuncio de la disponibilidad general de Agent 365 el 1 de mayo como plano de control para gobernar, proteger y supervisar agentes de AI a escala. La noticia importa porque refuerza la visibilidad y gestión del riesgo de AI en toda la empresa mediante herramientas como Security Dashboard for AI y Shadow AI Detection, ayudando a reducir la sobreexposición de datos, controlar accesos y responder a nuevas amenazas.

Security

Microsoft lanza CTI-REALM open source para detección AI

Microsoft ha presentado CTI-REALM, un benchmark open source que evalúa si los agentes de IA pueden crear y validar detecciones de seguridad de extremo a extremo a partir de informes reales de inteligencia de amenazas, en lugar de limitarse a responder preguntas teóricas. Esto importa porque ofrece a los equipos SOC una forma más práctica de medir el valor operativo de la IA en ingeniería de detección, incluyendo pasos clave como mapeo MITRE ATT&CK, consultas KQL y reglas Sigma en entornos Linux, AKS y Azure.

Security

Zero Trust for AI de Microsoft: taller y arquitectura

Microsoft presentó Zero Trust for AI (ZT4AI), una guía y arquitectura que adapta los principios de Zero Trust a entornos de IA para proteger modelos, agentes, datos y decisiones automatizadas frente a riesgos como prompt injection y data poisoning. Además, actualizó su Zero Trust Workshop con un nuevo pilar de IA y cientos de controles, lo que importa porque da a los equipos de seguridad y TI un marco práctico para evaluar riesgos, coordinar áreas de negocio y desplegar controles de seguridad de IA de forma más estructurada.