
Anthropic, ampliamente considerada como la conciencia preocupada por la seguridad de la carrera de la IA generativa (Generative AI), ha publicado la tercera versión de su Política de Escalado Responsable (Responsible Scaling Policy - RSP v3). La actualización, que reestructura fundamentalmente la forma en que la empresa maneja los riesgos catastróficos de la IA, llega en un momento de intensa fricción geopolítica y comercial. Mientras la empresa se enfrenta a un supuesto ultimátum del Departamento de Defensa de los EE. UU. con respecto al uso militar de su tecnología, la eliminación de su compromiso de seguridad "insignia" —detener el desarrollo si no se puede garantizar la seguridad— ha provocado un agudo escrutinio por parte de los observadores de la industria.
Desde su creación, la RSP de Anthropic se ha definido por un mecanismo de "compromisos condicionales". Bajo la anterior RSP v2, la empresa se comprometía a detener el entrenamiento o despliegue de nuevos modelos si cruzaban umbrales específicos de "Seguridad de la IA (AI Safety) Level" (ASL) sin tener implementadas las salvaguardas correspondientes. Este enfoque de "cable trampa" fue diseñado para priorizar la seguridad sobre la velocidad competitiva.
Con la RSP v3, Anthropic se ha alejado de estas paradas obligatorias. La empresa argumenta que las pausas unilaterales son ineficaces en un mercado donde los competidores continúan avanzando a toda velocidad. En su lugar, la nueva política enfatiza la transparencia y el establecimiento de objetivos públicos.
Componentes clave de RSP v3:
Los ejecutivos de Anthropic han enmarcado este cambio como una respuesta "pragmática" a la realidad. En una publicación de blog que acompaña al lanzamiento, la empresa señaló que "detener el entrenamiento de modelos de IA no ayudaría realmente a nadie" si otros desarrolladores con menos escrúpulos continúan avanzando. Citaron el fracaso de una "carrera hacia la cima" —donde los competidores emularían las restricciones de seguridad de Anthropic— como el principal motor del cambio.
La siguiente tabla describe los cambios estructurales entre la política anterior y la versión recién publicada.
| Característica/Compromiso | RSP v2 (Anterior) | RSP v3 (Actual) |
|---|---|---|
| Mecanismo principal | Pausa condicional (Cables trampa ASL) | Transparencia y Hojas de ruta |
| Promesa de seguridad | Detener el entrenamiento si la seguridad no está garantizada | Objetivos unilaterales pragmáticos |
| Documentación | Evaluaciones internas y umbrales definidos | Hojas de ruta de seguridad de frontera públicas |
| Informes de riesgo | Enfoque ad-hoc e interno | Informes de riesgo públicos sistemáticos (3-6 meses) |
| Estrategia de la industria | Liderar con el ejemplo (Carrera hacia la cima) | Cambio hacia la competitividad nacional |
El momento de la RSP v3 es imposible de separar del creciente enfrentamiento entre Anthropic y el ejército de los EE. UU. Los informes confirman que el Secretario de Defensa Pete Hegseth se reunió recientemente con el CEO de Anthropic, Dario Amodei, entregando un duro ultimátum: levantar las restricciones sobre el uso militar de los modelos Claude o enfrentar graves consecuencias.
Según se informa, el Pentágono exige que Anthropic permita que su IA se utilice para "cualquier propósito legal", despojando efectivamente a la empresa de su derecho a vetar aplicaciones militares específicas. Anthropic ha mantenido históricamente "líneas rojas" estrictas contra el uso de su tecnología para:
El Departamento de Defensa ha amenazado con invocar la Ley de Producción de Defensa (Defense Production Act - DPA), una ley de la era de la Guerra de Corea que permite al Presidente obligar a las empresas privadas a priorizar los contratos de defensa nacional. Además, los funcionarios han planteado la posibilidad de designar a Anthropic como un "riesgo para la cadena de suministro", lo que efectivamente pondría a la empresa en una lista negra para todos los contratos federales, costándoles potencialmente cientos de millones en ingresos y dejándolos fuera del lucrativo sector gubernamental.
Los críticos argumentan que la flexibilización de los compromisos de "pausa" de la RSP crea una brecha política conveniente. Al eliminar el requisito estricto de detener el despliegue basado en umbrales de seguridad internos, Anthropic puede estar posicionándose para acomodar las demandas del Pentágono (Pentagon) sin violar técnicamente su propia constitución de seguridad.
La revisión de la RSP resalta una tensión creciente en la industria de la IA: el "excedente de capacidad" (capability overhang). Este término se refiere a la brecha entre el poder bruto de un modelo de IA y los mecanismos de seguridad disponibles para controlarlo. La política anterior de Anthropic fue diseñada para evitar que este excedente creciera demasiado. Al eliminar el freno brusco, la empresa está aceptando implícitamente un mayor nivel de riesgo para seguir siendo competitiva frente a rivales como OpenAI y xAI, quienes ya han asegurado extensos contratos de defensa.
Por qué esto es importante para el ecosistema de la IA:
La RSP v3 de Anthropic representa una comprensión madura, aunque cínica, del panorama de la IA en 2026. El idealismo de 2023 —donde una sola empresa podía dirigir la industria hacia la seguridad a través del liderazgo moral— ha chocado con las duras realidades de la competencia entre grandes potencias y la necesidad militar. Si bien la introducción de los Informes de riesgo y las Hojas de ruta de seguridad de frontera ofrece una nueva capa de transparencia, la eliminación del "compromiso de seguridad" vinculante marca el fin de una era. Mientras el Pentágono acecha, Anthropic ya no intenta frenar el tren; simplemente promete tocar el silbato con más fuerza mientras este acelera.