
El ambiente en el Moscone Center durante la RSA Conference 2026 era electrizante, dominado por un tema único y global: la transición de los asistentes de IA generativa (Generative AI) pasivos a la "IA agéntica" (Agentic AI) autónoma. A medida que las empresas avanzan más allá de la mera generación de texto hacia el despliegue de agentes de IA sofisticados capaces de ejecutar flujos de trabajo complejos, la industria ha alcanzado un punto de inflexión crítico. El desafío central, como destacó una oleada de anuncios esta semana, ya no es solo proteger los datos, sino proteger la identidad de la propia fuerza laboral digital.
En el centro del discurso de RSAC 2026, cinco grandes titanes de la seguridad (CrowdStrike, Cisco, Palo Alto Networks, Microsoft y Cato CTRL) presentaron simultáneamente nuevos marcos de identidad para agentes de IA. Estas iniciativas están diseñadas para categorizar, autenticar y autorizar identidades no humanas, una evolución necesaria en un entorno de Confianza cero (Zero Trust). Sin embargo, tras los pulidos comunicados de prensa y las ambiciosas hojas de ruta, ha surgido una realidad aleccionadora. Los análisis recientes de incidentes en organizaciones de la lista Fortune 50 revelan que, a pesar de estos nuevos marcos, persisten tres brechas de seguridad críticas que dejan a estos agentes automatizados vulnerables ante explotaciones sofisticadas.
Durante años, la gestión de identidades se ha centrado en "quién" accede al sistema, asumiendo normalmente un usuario humano. Con el auge de la IA agéntica (Agentic AI), el paradigma ha cambiado. Ahora tratamos con entidades que poseen la autonomía para consultar bases de datos, iniciar llamadas a API y modificar configuraciones del sistema sin intervención humana directa.
La respuesta de la industria en la RSAC 2026 refleja esta urgencia. El objetivo de los marcos recién lanzados es tratar a cada agente de IA como una identidad distinta, con su propio conjunto de credenciales, alcances de autoridad y perfiles de comportamiento. Este enfoque busca alejarse de las "cuentas de sistema" que a menudo tienen excesivos privilegios y son difíciles de auditar, hacia un modelo granular centrado en la identidad.
Sin embargo, la velocidad vertiginosa del desarrollo ha superado la madurez de estos marcos. Mientras que CrowdStrike y Cisco han enfatizado la telemetría de red y de puntos finales (endpoints) como la base de sus modelos de confianza de identidad, y Microsoft se ha apoyado en su profunda integración con Entra ID, el problema fundamental del comportamiento del agente —lo que el agente hace una vez autenticado— sigue siendo el principal punto de discordia.
Cada uno de los principales actores ha abordado el problema a través del prisma de su competencia principal. La siguiente tabla ofrece una instantánea del enfoque estratégico de estas organizaciones.
| Proveedor | Estrategia principal | Enfoque clave |
|---|---|---|
| CrowdStrike | Telemetría de puntos finales | Monitoreo del comportamiento de agentes vía EDR |
| Cisco | Tejido de red (Network Fabric) | Controles de acceso de Confianza cero para agentes |
| Palo Alto Networks | Plataforma integrada | Aplicación de políticas conscientes del contexto |
| Microsoft | Ecosistema de identidad | Integración de Entra ID para identidades de IA |
| Cato CTRL | Marco SASE | Acceso seguro para agentes distribuidos |
Como se describe anteriormente, el enfoque se centra en gran medida en establecer quién es el agente. Sin embargo, los analistas de la industria en Creati.ai señalan que establecer la identidad es solo el primer paso. La brecha reside en gestionar la naturaleza dinámica de estos agentes una vez que entran en la red corporativa.
A pesar de los avances tecnológicos presentados en RSAC 2026, los datos del mundo real de incidentes de seguridad recientes en empresas Fortune 50 destacan que estos marcos no logran abordar tres vulnerabilidades fundamentales. Estas brechas representan los "puntos ciegos" de la seguridad moderna de la IA agéntica.
La mayoría de los marcos actuales se basan en definiciones de políticas estáticas. En un entorno estático, a un agente se le asigna un rol fijo; por ejemplo, "Acceso de solo lectura a la base de datos". Sin embargo, la fuerza de los agentes de IA reside en su capacidad para razonar y adaptarse. Cuando a un agente se le encomienda un objetivo complejo, puede intentar escalar sus propias operaciones, incurriendo efectivamente en un "desbordamiento del alcance" (scope creep).
Los marcos de identidad actuales carecen de la lógica para reevaluar dinámicamente el alcance de la autorización de un agente en tiempo real basándose en la intención de un comando (prompt) específico. Si un agente se ve comprometido o sufre alucinaciones, puede aprovechar su identidad asignada para realizar acciones para las que nunca fue destinado explícitamente, simplemente porque el límite de permisos era demasiado amplio y se definió al inicio de la sesión en lugar de al momento de la ejecución de la tarea.
En la seguridad informática tradicional, los registros (logs) son lineales y deterministas. Si un usuario elimina un archivo, hay una cadena de custodia clara: ID de usuario -> Acción -> Marca de tiempo. Los agentes de IA, sin embargo, operan de manera no determinista. Encadenan múltiples pasos, rutas de razonamiento y llamadas a API para lograr un objetivo.
La segunda brecha crítica identificada es la incapacidad de los marcos de identidad actuales para proporcionar un rastro legible por humanos y auditable de por qué un agente tomó una decisión. Cuando ocurre un incidente, los equipos forenses se quedan con una enorme pila de registros de API no estructurados, pero sin visibilidad sobre el "proceso de pensamiento" interno del agente. Esto hace que sea casi imposible determinar si una acción fue el resultado de una inyección de comandos maliciosa, una mala configuración o una ruta de razonamiento genuina (aunque defectuosa).
Por último, existe el problema de la comunicación entre agentes. Las arquitecturas empresariales modernas dependen cada vez más de "sistemas multiagente", donde un agente de orquestación gestiona varios subagentes especializados. Los marcos de identidad presentados en RSAC 2026 tratan en gran medida a los agentes como entidades aisladas.
Esto deja una vulnerabilidad significativa: el envenenamiento de contexto. Si un agente con pocos privilegios se ve comprometido, puede proporcionar un contexto "envenenado" o instrucciones maliciosas a un agente con mayores privilegios dentro del mismo flujo de trabajo. Debido a que estos marcos carecen de una validación de identidad entre agentes —donde un agente verifique el nivel de confianza de otro antes de aceptar su entrada—, la seguridad de toda la cadena es tan fuerte como su eslabón más débil.
Los anuncios de proveedores como Cisco y Microsoft son, sin duda, un paso en la dirección correcta. Al estandarizar el concepto de identidad no humana, están sentando las bases para sistemas autónomos más seguros. Sin embargo, las organizaciones no deben confundir estos marcos con soluciones de seguridad de tipo "configurar y olvidar".
Para cerrar estas brechas, las empresas deben adoptar una estrategia de defensa multicapa:
RSAC 2026 ha señalado con éxito que la seguridad de la IA (AI security) está entrando en una nueva fase más madura. El enfoque en la Identidad del Agente de IA es un desarrollo necesario y bienvenido, que proporciona la integridad estructural necesaria para gobernar la próxima generación de cargas de trabajo autónomas.
Sin embargo, como demuestran las experiencias de las empresas Fortune 50, la identidad no es una solución mágica. Mientras que CrowdStrike, Cisco y sus pares han construido las puertas para esta nueva era, las cerraduras —específicamente aquellas que rigen la autorización dinámica, la auditabilidad y la confianza entre agentes— aún se están forjando. Para los lectores de Creati.ai y los líderes empresariales, la conclusión es clara: adopten estos nuevos marcos de identidad, pero prioricen la seguridad operativa de los propios agentes. La era de la IA agéntica ya está aquí, y nuestra postura de seguridad debe evolucionar tan rápidamente como los modelos que desplegamos.