
Una sofisticada cadena de ataque multi-etapa dirigida a usuarios del asistente de IA Claude de Anthropic ha sido sacada a la luz por investigadores de Oasis Security. Apodada "Claudy Day", este descubrimiento resalta un componente crítico y a menudo pasado por alto de la seguridad de la IA generativa (Generative AI): la integridad del mecanismo de entrega y los límites ocultos entre la entrada del usuario y las instrucciones del modelo.
El ataque, que aprovecha una combinación de tres vulnerabilidades distintas, permite a los actores de amenazas realizar una filtración de datos (data exfiltration) silenciosa del historial de conversaciones de un usuario. Cabe destacar que el ataque no requiere el despliegue de malware tradicional, correos electrónicos de phishing o descargas de archivos sospechosos. En su lugar, explota el diseño inherente del flujo de interacción de la plataforma de IA, convirtiendo las propias funciones de la IA en un motor de filtración.
La genialidad —y el peligro— de la cadena de ataque "Claudy Day" reside en su simplicidad. Combina tres fallos, que por sí solos podrían considerarse menores o de "bajo impacto", en un flujo cohesivo que facilita el robo silencioso de datos. Según el equipo de investigación de Oasis Security, el flujo de ataque permite a un actor de amenazas entregar un enlace envenenado a través de Google Ads, que luego ejecuta comandos ocultos dentro del entorno de Claude.
El ataque se basa en una secuencia específica para lograr su objetivo. Cada componente desempeña un papel vital para asegurar que el usuario sea engañado, el modelo sea manipulado y los datos sean filtrados con éxito.
La siguiente tabla resume las tres vulnerabilidades identificadas en la cadena de ataque "Claudy Day":
| Componente | Mecanismo | Implicación de seguridad |
|---|---|---|
| Inyección de comandos (Prompt Injection) a través de URL | Atributos HTML ocultos en el parámetro ?q= |
Claude ejecuta instrucciones ocultas a la vista del usuario, anulando el comportamiento normal. |
| Filtración mediante la API de archivos (Files API Exfiltration) | Uso no autorizado de la API de archivos (Files API) de Anthropic |
Permite la transferencia de datos a un almacenamiento controlado por el atacante dentro del entorno de pruebas (sandbox). |
| Redirección abierta (Open Redirect) | Vulnerabilidad en claude.com/redirect/ |
Permite a los atacantes enmascarar enlaces maliciosos como tráfico legítimo, eludiendo las sospechas del usuario. |
El ciclo de vida de un ataque "Claudy Day" comienza mucho antes de que el usuario interactúe con la IA. Al utilizar una vulnerabilidad de redirección abierta (open redirect) en claude.com, los atacantes pueden crear URLs que parecen originarse en el dominio legítimo de Anthropic. Esta capacidad es particularmente letal cuando se combina con publicidad en buscadores; un atacante puede crear un anuncio de Google que muestre una URL de claude.com confiable mientras que en realidad conduce al usuario a un punto de redirección envenenado.
Una vez que el usuario hace clic en el anuncio, es redirigido a una URL claude.ai/new?q= especialmente diseñada. Esta URL contiene un prompt pre-completado. Crucialmente, los investigadores descubrieron que la interfaz fallaba al sanear las etiquetas HTML colocadas dentro de estos parámetros de URL. Mientras el usuario ve un texto pre-completado benigno en la caja de chat, el modelo mismo recibe y ejecuta los comandos ocultos incrustados en los atributos HTML subyacentes.
La etapa final —la filtración— es quizás la más insidiosa. Debido a que el sandbox de Claude está diseñado para bloquear conexiones salientes a servidores externos, los investigadores señalaron que una "llamada a casa" directa al servidor de un atacante fallaría. En su lugar, el ataque explota la API de archivos interna de la plataforma. El prompt oculto instruye a Claude a recopilar datos de la conversación, escribirlos en un archivo y cargarlos al almacenamiento del atacante a través de la API de archivos. El atacante luego recupera los datos a su conveniencia, dejando al usuario completamente inconsciente de que su historial de chat ha sido comprometido.
La revelación de "Claudy Day" sirve como un recordatorio contundente de la superficie de ataque en evolución inherente a la IA agéntica (agentic AI). A medida que las empresas integran cada vez más agentes de IA en sus flujos de trabajo —otorgándoles a menudo permisos para acceder a documentos internos, bases de código y APIs de terceros—, el potencial de que tales exploits de "baja tecnología" tengan consecuencias de alto impacto crece significativamente.
Una de las conclusiones más profundas de esta investigación es la fragilidad de la "primera interacción". En muchas implementaciones de IA, el modelo está preparado para actuar tan pronto como el usuario abre la interfaz. El ataque "Claudy Day" resalta que este es un límite de seguridad crítico. Debido a que el prompt inyectado llega justo al inicio de una sesión, el agente procesa el comando antes de que se haya establecido una relación de confianza o pueda ocurrir cualquier verificación manual por parte del usuario.
Los expertos de la industria sugieren que las plataformas de IA deben avanzar hacia un modelo de "confianza cero" (zero-trust) para los prompts iniciales. Esto implicaría:
Anthropic ya ha actuado para abordar las vulnerabilidades específicas identificadas en la cadena "Claudy Day", parcheando el problema de la inyección de comandos y trabajando en la remediación de los demás. Sin embargo, el incidente sirve como un indicador para el panorama más amplio de la seguridad de la IA (AI security).
Para los desarrolladores y organizaciones que despliegan agentes de IA, la lección es clara: la seguridad no puede ser una ocurrencia tardía. La integridad de los prompts debe considerarse un control de seguridad central. A medida que la industria avanza hacia agentes más autónomos capaces de realizar tareas complejas, la dependencia del "buen comportamiento" del modelo es una estrategia insuficiente. Los equipos de seguridad deben tener en cuenta la posibilidad de que el mecanismo de entrega —la URL, el resultado de búsqueda, el correo electrónico— sea un vector de manipulación, y diseñar el marco de permisos de la IA en consecuencia.
La investigación de "Claudy Day" subraya que, si bien la tecnología de IA generativa continúa avanzando, los fundamentos del desarrollo de software seguro permanecen constantes. Incluso el modelo más sofisticado es tan seguro como el sistema que lo aloja y los canales a través de los cuales llegan los usuarios.