Agentes de IA: observabilidad y Zero Trust ya
Resumen
El informe Cyber Pulse de Microsoft advierte que los agentes de IA ya están ampliamente desplegados en grandes empresas —muchos creados con herramientas low-code/no-code y operando de forma autónoma—, pero su adopción está superando la capacidad de inventariarlos, gobernarlos y protegerlos. Esto importa porque el auge del “shadow AI” deja a los equipos de IT y seguridad sin visibilidad sobre quién usa estos agentes, qué datos tocan y qué acciones ejecutan, haciendo urgente aplicar observabilidad y un enfoque Zero Trust.
Introducción: por qué esto importa ahora
Los agentes de AI ya no son experimentales: están integrados en los flujos de trabajo diarios en ventas, finanzas, operaciones de seguridad y atención al cliente. El informe más reciente Cyber Pulse de Microsoft destaca una brecha crítica: muchas organizaciones están adoptando agentes más rápido de lo que pueden inventariarlos, gobernarlos y protegerlos. Para los equipos de IT y seguridad, el desafío inmediato es la visibilidad, porque no se puede proteger (ni auditar) lo que no se puede ver.
Qué hay de nuevo / conclusiones clave del informe
Los agentes de AI son algo generalizado y no se limitan a los desarrolladores
- Más del 80% de las organizaciones Fortune 500 están usando agentes de AI activos, a menudo creados con herramientas low-code/no-code.
- La adopción abarca industrias (en particular software/tecnología, manufactura, servicios financieros y retail) y regiones globales.
- Cada vez más, los agentes se ejecutan en modos autónomos, realizando acciones con mínima intervención humana, lo que cambia el perfil de riesgo en comparación con las aplicaciones tradicionales.
El punto ciego emergente: “shadow AI”
Microsoft señala que muchos líderes no pueden responder preguntas básicas:
- ¿Cuántos agentes existen en toda la empresa?
- ¿Quién es el propietario?
- ¿A qué datos y sistemas acceden?
- ¿Cuáles están autorizados vs. no autorizados?
Esto no es teórico. El informe cita que el 29% de los empleados ha usado agentes de AI no autorizados para tareas laborales, introduciendo nuevas vías de exposición de datos, violaciones de políticas y abuso de permisos heredados.
Principios de Zero Trust: ahora aplicados a usuarios no humanos a escala
El informe enfatiza aplicar de forma consistente los principios establecidos de Zero Trust a los agentes:
- Acceso con privilegio mínimo (los agentes obtienen solo lo que necesitan)
- Verificación explícita (validar identidad y contexto para las solicitudes de acceso)
- Asumir el compromiso (diseñar para la brecha y la contención rápida)
La observabilidad es lo primero: cinco capacidades requeridas
Microsoft describe cinco capacidades fundamentales para construir observabilidad y gobernanza reales para agentes de AI:
- Registro: un inventario centralizado/fuente de verdad para todos los agentes (incluidos los de terceros y shadow)
- Control de acceso: controles impulsados por identidad y políticas, aplicando de forma consistente el privilegio mínimo
- Visualización: paneles/telemetría para comprender comportamiento, dependencias y riesgo
- Interoperabilidad: gobernanza consistente en ecosistemas de Microsoft, open-source y de terceros
- Seguridad: protecciones para detectar el uso indebido, la deriva y el compromiso de forma temprana
Impacto en administradores de IT y usuarios finales
- La identidad se convierte en el plano de control para los agentes: trate a los agentes como empleados o cuentas de servicio con acceso gobernado y responsabilidad.
- Aumenta la presión de cumplimiento y auditoría, especialmente en sectores regulados (finanzas, salud, sector público).
- Los usuarios finales seguirán adoptando herramientas si no hay opciones autorizadas disponibles, por lo que la habilitación más barandillas (guardrails) es esencial.
Acciones / próximos pasos
- Establezca de inmediato un enfoque de inventario/registro de agentes (empiece por las plataformas autorizadas y amplíe hacia el descubrimiento del uso no autorizado).
- Defina la propiedad y el ciclo de vida (creación, aprobación, control de cambios, retiro) para los agentes: la gobernanza no es lo mismo que la seguridad.
- Aplique privilegio mínimo para las identidades de agentes (revise rutas de acceso, secretos, conectores y alcance de datos).
- Implemente monitoreo y telemetría para detectar comportamientos anómalos y deriva de acceso.
- Alinee a un equipo multifuncional (IT, seguridad, legal, cumplimiento, RR. HH., dueños del negocio) para tratar el riesgo de AI como riesgo empresarial.
¿Necesita ayuda con Security?
Nuestros expertos pueden ayudarle a implementar y optimizar sus soluciones Microsoft.
Hablar con un expertoManténgase actualizado sobre tecnologías Microsoft