
En una importante reestructuración del liderazgo técnico de OpenAI, Max Schwarzer, Vicepresidente de Investigación y Jefe de Post-entrenamiento (Post-Training), ha renunciado para unirse al laboratorio rival Anthropic. El anuncio, realizado a través de X (anteriormente Twitter) el 3 de marzo de 2026, se produce pocas horas después de que OpenAI formalizara una controvertida asociación con el Departamento de Guerra de los EE. UU. (U.S. Department of War, anteriormente el Departamento de Defensa), un acuerdo que ha desatado un intenso debate sobre la militarización de la inteligencia artificial (IA).
La salida de Schwarzer marca la última de una serie de salidas de alto perfil en lo que los analistas de la industria llaman una "migración impulsada por valores" desde OpenAI hacia Anthropic. Aunque Schwarzer citó públicamente el deseo de volver a la investigación como colaborador individual (IC - Individual Contributor) en aprendizaje por refuerzo (reinforcement learning), el momento de su renuncia —coincidiendo con la reacción pública contra la nueva alineación militar de OpenAI— ha atraído un agudo escrutinio de la comunidad de IA.
Max Schwarzer deja atrás un legado monumental en OpenAI. Como Jefe de Post-entrenamiento, fue responsable directo del perfeccionamiento y la alineación de seguridad de los modelos más avanzados de la compañía. Su mandato supervisó la entrega de todo el linaje GPT-5 (incluyendo GPT-5.1, 5.2 y el modelo especializado en codificación 5.3-Codex) y la serie-o centrada en el razonamiento (o1 y o3).
"Estoy increíblemente orgulloso de todo el trabajo del que he formado parte aquí", escribió Schwarzer en su declaración de despedida. Destacó sus contribuciones a la creación del paradigma de razonamiento junto a sus colegas y el escalado del cómputo en tiempo de prueba (test-time compute). Sin embargo, su declaración enfatizó notablemente el atractivo de la cultura de Anthropic: "Muchas de las personas en las que más confío y respeto se han unido a Anthropic en los últimos dos años".
El movimiento de Schwarzer no es meramente un cambio administrativo; representa una transferencia de conocimiento institucional crítico. El Post-entrenamiento (Post-training) es la etapa en la que los modelos de IA en bruto se pulen en cuanto a comportamiento, seguridad y utilidad, otorgando efectivamente al modelo su "personalidad" y restricciones éticas. Al trasladarse a Anthropic, Schwarzer aporta una profunda experiencia en los métodos propietarios utilizados para alinear GPT-5 y o3, reforzando el ya formidable equipo de investigación de Anthropic.
El contexto de la renuncia de Schwarzer no puede desvincularse de la tormenta geopolítica que envuelve actualmente a Silicon Valley. A principios de esta semana, el Pentágono —denominado en las actualizaciones de documentos oficiales recientes como el Departamento de Guerra (Department of War)— anunció un cambio decisivo en su estrategia de adquisición de IA.
Siguiendo una directiva de la administración Trump, se ordenó a las agencias federales cesar los contratos con Anthropic después de que la empresa se negara a renunciar a sus "líneas rojas" con respecto a la vigilancia masiva y el armamento autónomo. La negativa de Anthropic a modificar sus Términos de Servicio para acomodar las amplias demandas de acceso del Departamento llevó a un rápido "abandono" de sus servicios.
OpenAI, por el contrario, ocupó el vacío. El CEO Sam Altman confirmó un nuevo acuerdo que permite el despliegue de los modelos de OpenAI en redes clasificadas. Aunque Altman admitió más tarde que el manejo inicial del anuncio fue "oportunista y descuidado", y aclaró que el acuerdo incluye salvaguardas contra la vigilancia nacional, la óptica ha sido perjudicial.
La siguiente tabla describe los caminos divergentes tomados por los dos gigantes de la IA con respecto a la colaboración militar, un cisma que parece estar impulsando las decisiones de talento.
Tabla: El enfrentamiento militar OpenAI vs. Anthropic (Marzo 2026)
| Característica | Postura de OpenAI | Postura de Anthropic |
|---|---|---|
| Estado del Contrato | Acuerdo de despliegue clasificado firmado (marzo 2026) | Negociaciones de contrato colapsadas/Terminadas |
| Objeción Principal | Ninguna; cumplió con las cláusulas de "propósito legal" | Se negó a renunciar a las "Líneas Rojas" sobre vigilancia |
| Política de Vigilancia | Afirma que existen salvaguardas contra el espionaje nacional | Prohibición estricta en los Términos de Servicio |
| Entorno de Despliegue | Redes clasificadas del Pentágono permitidas | Se negó al despliegue clasificado sin auditoría |
| Relación Gubernamental | Socio preferido bajo la directiva de Trump | Designado como "Riesgo de la Cadena de Suministro" |
| Declaración del CEO | "Necesitamos trabajar con los gobiernos." (Altman) | "No comprometeremos los estándares de seguridad." (Amodei) |
Schwarzer no es una anomalía; es parte de una tendencia creciente. Durante los últimos 18 meses, Anthropic se ha convertido en un refugio para investigadores que priorizan la seguridad de la IA y la rigidez ética sobre la comercialización rápida o la alineación gubernamental.
La "confianza" a la que Schwarzer se refirió en su carta de renuncia probablemente alude a antiguos pesos pesados de OpenAI que ya han dado el salto, como Jan Leike e Ilya Sutskever (a través de su propia empresa, aunque ideológicamente alineado con el campo de la seguridad primero). Anthropic, dirigida por el ex-VP de OpenAI Dario Amodei, se ha posicionado con éxito como la "conciencia" de la industria.
Esta migración representa un riesgo estratégico para OpenAI. Si bien la empresa mantiene una ventaja comercial masiva y el respaldo del gobierno, la pérdida del liderazgo técnico central —específicamente aquellos que entienden las complejidades del post-entrenamiento y el aprendizaje por refuerzo (reinforcement learning) a partir de retroalimentación humana (RLHF)— podría ralentizar los ciclos de iteración para futuros modelos como GPT-6.
La dicotomía entre OpenAI y Anthropic es ahora más marcada que nunca.
Para Max Schwarzer, el traslado a Anthropic es un regreso a sus raíces. Declaró el deseo de "volver al trabajo de campo" en la investigación de aprendizaje por refuerzo (RL). En Anthropic, es probable que se centre en la próxima generación de IA constitucional (Constitutional AI), ayudando a construir sistemas que no solo sean potentes sino rigurosamente controlables —una misión que aparentemente resuena más con él que el despliegue de GPT-5 para el Departamento de Guerra.
Mientras el polvo se asienta en esta semana caótica, la industria se queda observando dos futuros distintos para la inteligencia artificial: uno que abraza el poder del estado y otro que intenta restringirlo. El flujo de talento de primer nivel como Schwarzer sugiere que, para los investigadores que construyen estas mentes, la elección es cada vez más clara.