
El panorama de la seguridad empresarial está experimentando un cambio tectónico y silencioso. A medida que los modelos de lenguaje extensos (LLM, por sus siglas en inglés) se vuelven cada vez más compactos y eficientes, la barrera para ejecutar IA de alto rendimiento ha desaparecido efectivamente. Hoy en día, los desarrolladores y científicos de datos ya no están sujetos a las API basadas en la nube ni a los servicios de IA restringidos por las empresas. En cambio, recurren cada vez más a la inferencia local en el dispositivo para llevar a cabo su trabajo. Aunque esta innovación promete una velocidad y una privacidad de los datos sin precedentes para el individuo, ha dado lugar a un desafío formidable para los departamentos de TI y seguridad: Shadow AI (IA en la sombra).
En Creati.ai, hemos observado que la democratización de los modelos de IA, a menudo distribuidos a través de plataformas como Hugging Face, ha permitido a los empleados eludir las adquisiciones y la supervisión centralizadas. Esta tendencia de "Trae tu propio modelo" (BYOM) representa una expansión significativa de la superficie de ataque, trasladando el foco del riesgo del centro de datos a la computadora portátil del empleado.
La Shadow AI se refiere a la adopción y el uso de herramientas, software o modelos de IA por parte de los empleados sin la aprobación explícita o la visibilidad de los equipos de operaciones de TI y seguridad de la empresa. A diferencia de la "Shadow IT" (TI en la sombra) tradicional, que a menudo implicaba aplicaciones SaaS basadas en la nube, la Shadow AI es singularmente peligrosa porque opera completamente en el dispositivo local, a menudo desconectada de las herramientas de monitoreo de red.
El cambio hacia la ejecución local está impulsado por varias necesidades de los desarrolladores que, aunque prácticas, son arriesgadas:
La transición a la inferencia local oscurece el camino que siguen los datos. Cuando un modelo se ejecuta localmente, las herramientas tradicionales de Prevención de Pérdida de Datos (DLP), que generalmente están diseñadas para inspeccionar el tráfico que entra y sale de la red corporativa, se vuelven efectivamente ciegas.
| Dimensión del Riesgo | Descripción | Impacto en la Seguridad |
|---|---|---|
| Exfiltración de datos | Los modelos pueden entrenarse o ajustarse con conjuntos de datos internos propietarios. | Fuga de datos desde vectores de almacenamiento local |
| Heredabilidad de vulnerabilidades | Los modelos de código abierto pueden contener pesos maliciosos o código de puerta trasera (backdoor). | Compromiso del entorno de la máquina local |
| Ceguera de gobernanza | TI carece de visibilidad sobre qué modelos están desplegados y sus capacidades. | Incapacidad para aplicar el cumplimiento o políticas |
| Propiedad intelectual | El código de desarrollo se procesa a través de motores locales no verificados. | Pérdida de lógica de software propietaria y PI |
Asegurar un entorno donde el "BYOM" es la norma requiere alejarse de la defensa tradicional basada en perímetros. Las empresas están descubriendo que los mecanismos de bloqueo tradicionales —como deshabilitar chats específicos basados en la web— son insuficientes cuando el modelo mismo se ha descargado en el disco duro.
Cuando las cargas de trabajo de IA residen en hardware local, se elude el monitoreo del flujo de tráfico "norte-sur" que caracteriza a la mayoría de las pilas de seguridad. Los departamentos de TI tienen dificultades para crear un inventario de lo que realmente se está ejecutando en las máquinas de sus desarrolladores.
¿Cómo puede una empresa confiar en un modelo descargado de un repositorio de código abierto de terceros? El riesgo de modelos "envenenados", que podrían estar diseñados para filtrar información o proporcionar resultados sesgados, está aumentando. Sin un escaneo riguroso de los pesos del modelo, la empresa está esencialmente invitando a un binario de terceros no verificado a su infraestructura central.
La aplicación de políticas de uso corporativo se vuelve exponencialmente más difícil cuando no hay un intermediario de API. Las empresas que dependen de barreras de seguridad (guardrails) del lado del servidor para filtrar contenido dañino o sensible se encuentran sin un mecanismo para aplicar estas mismas reglas en un modelo local y fuera de línea.
Creati.ai sugiere que intentar prohibir por completo la experimentación con modelos locales es una batalla perdida. En cambio, el enfoque debería desplazarse hacia la construcción de un "entorno aislado seguro" (sandbox) que facilite la innovación mientras mantiene la visibilidad.
La era del control centralizado sobre el consumo de IA está terminando rápidamente. A medida que los desarrolladores continúan superando los límites de lo que se puede realizar "en el dispositivo", las posturas de seguridad deben evolucionar para descentralizarse también. La Shadow AI es un síntoma de la fricción entre el desarrollo de alta velocidad y la seguridad rígida. Al abordar lo primero con mejores herramientas, en lugar de solo con prohibiciones, las organizaciones pueden cerrar la brecha.
El desafío para el próximo año no será si los empleados usan modelos locales, sino si las empresas pueden obtener la visibilidad necesaria para garantizar que estos modelos no se conviertan en conductos para fugas de datos o compromisos de seguridad. A medida que continuamos monitoreando la intersección de la IA y la seguridad aquí en Creati.ai, una cosa permanece clara: la seguridad debe ser tan ágil como los modelos que pretende proteger.