
23 de febrero de 2026 – En una actualización sutil pero sísmicamente significativa de su documentación corporativa, OpenAI ha eliminado la palabra "de forma segura" (safely) de su declaración de misión principal. Este cambio lingüístico, observado a primera hora de la mañana del lunes, se produce mientras el gigante de la inteligencia artificial acelera su transición hacia una Sociedad de Beneficio Público (Public Benefit Corporation, PBC) con fines de lucro, marcando un alejamiento definitivo de su ética fundacional como laboratorio de investigación sin fines de lucro centrado en la seguridad.
El cambio, aunque consiste en una sola palabra, resuena en toda la industria de la IA, confirmando las sospechas mantenidas durante mucho tiempo de que la empresa está priorizando la velocidad de despliegue y la viabilidad comercial sobre los principios de precaución que una vez definieron su marca. Mientras Sam Altman dirige la organización a través de su reestructuración más controvertida hasta la fecha, la eliminación de "de forma segura" parece tratarse menos de una edición por brevedad y más de alinear las obligaciones legales con una nueva y agresiva realidad operativa.
Durante años, la misión de OpenAI estuvo codificada por un doble compromiso: garantizar que la inteligencia artificial general (Artificial General Intelligence, AGI) beneficie a toda la humanidad y garantizar que se desarrolle de forma segura. El texto actualizado, ahora publicado en las páginas "Charter" (Estatutos) y "About" (Acerca de) de la empresa, conserva el compromiso con una AGI beneficiosa, pero elimina conspicuamente el adverbio que calificaba el proceso de desarrollo.
Esta modificación no es meramente cosmética. En el mundo de alto riesgo del derecho corporativo —particularmente para una Sociedad de Beneficio Público (Public Benefit Corporation)— las declaraciones de misión sirven como la "Estrella del Norte" para los deberes de la junta directiva. Al eliminar la restricción explícita de "de forma segura" de la misión de alto nivel, OpenAI puede estar liberándose legalmente de procesos de seguridad que podrían ralentizar los lanzamientos de productos o dificultar las asociaciones comerciales.
Los analistas de Creati.ai han realizado una comparación paralela de la declaración de misión archivada frente a la versión publicada hoy. Las diferencias resaltan un giro claro hacia un desarrollo sin restricciones.
Tabla 1: Análisis comparativo de los cambios en la declaración de misión de OpenAI
| Texto de la misión anterior | Texto de la misión actualizado | Implicación estratégica |
|---|---|---|
| Garantizar que la inteligencia artificial general (AGI) se desarrolle de forma segura y beneficie a toda la humanidad. | Garantizar que la inteligencia artificial general (AGI) beneficie a toda la humanidad. | Elimina el mandato explícito de la seguridad como condición previa para el desarrollo, priorizando el resultado de "beneficio". |
| Intentaremos construir directamente una AGI segura y beneficiosa. | Intentaremos construir directamente una AGI beneficiosa. | Desvincula el concepto de "beneficio" de la "seguridad", lo que implica que la utilidad y el valor económico pueden ahora prevalecer sobre la mitigación de riesgos. |
| Si un proyecto alineado con los valores y consciente de la seguridad está cerca de construir la AGI antes que nosotros, nos comprometemos a dejar de competir. | Si un proyecto alineado con los valores está cerca de construir la AGI antes que nosotros, nos comprometemos a dejar de competir. | Reduce el umbral de lo que constituye un competidor "alineado con los valores", eliminando potencialmente los protocolos de seguridad como criterio para la cooperación. |
El momento de esta edición está inextricablemente ligado a la finalización de la reestructuración de OpenAI en una Sociedad de Beneficio Público con fines de lucro. Desde finales de 2025, la empresa ha estado navegando por la compleja disolución legal de su junta de gobierno original sin fines de lucro, una estructura que fue diseñada originalmente para despedir al CEO si se comprometía la misión de una "AGI segura".
Con la junta sin fines de lucro ahora efectivamente marginada, la nueva estructura de PBC permite a OpenAI buscar legalmente retornos para los accionistas, siempre que equilibren estos beneficios con un "beneficio público". La eliminación de "de forma segura" de la declaración de misión simplifica este acto de equilibrio. Si la "seguridad" sigue siendo un pilar de misión primario y equitativo, un miembro de la junta podría, en teoría, demandar a la empresa por lanzar un modelo que conlleve un riesgo distinto de cero. Al eliminar la palabra, la definición de "beneficio público" se vuelve más maleable, interpretándose probablemente como "crecimiento económico" o "acceso tecnológico" en lugar de "evitación de riesgos".
Expertos legales sugieren que se trata de una maniobra defensiva. "En una PBC, la misión es la ley", explica Sarah Jenkins, abogada de gobierno corporativo especializada en tecnología. "Si su misión requiere que actúen 'de forma segura', son vulnerables a demandas de los accionistas cada vez que un modelo alucina o se utiliza de forma indebida. Al eliminar la palabra, OpenAI está bajando su escudo de responsabilidad para despejar el camino hacia una comercialización rápida".
La medida ha provocado una reacción inmediata de la comunidad de seguridad de la IA (AI safety) y de antiguos empleados de OpenAI. La facción "seguritista", que ha sido purgada lentamente de la empresa durante los últimos dos años, ve esto como el clavo final en el ataúd de la promesa original de la organización.
Los críticos argumentan que sin el mandato explícito de seguridad, OpenAI está operando efectivamente como cualquier otra gran empresa tecnológica (Big Tech), a pesar de poseer una tecnología de consecuencias potencialmente existenciales. "Es una declaración de intenciones", señaló un antiguo líder del equipo de Superalineación (Superalignment) que solicitó el anonimato. "Le están diciendo al mundo que si hay un compromiso entre lanzar un modelo la próxima semana o probarlo durante otros seis meses, elegirán el lanzamiento. Las protecciones de seguridad son ahora características opcionales, no restricciones fundamentales".
Por el contrario, los defensores del cambio —incluidos muchos en el bando aceleracionista (e/acc)— argumentan que la palabra "de forma segura" se había convertido en un término armamentizado utilizado para estancar el progreso. Sostienen que el mayor riesgo para la humanidad no es una IA rebelde, sino el fracaso en el despliegue de soluciones de IA para curar enfermedades y resolver el cambio climático. Desde este punto de vista, la actualización de la misión es una corrección necesaria para desatar todo el potencial de la tecnología.
El cambio en OpenAI contrasta fuertemente con las estrategias empleadas por sus principales competidores. Mientras OpenAI suaviza su lenguaje, se informa que Anthropic está redoblando su apuesta por la seguridad como una propuesta de venta única para asegurar contratos gubernamentales.
Según informes de The New York Times, el Pentágono está evaluando actualmente importantes asociaciones de IA para sus sistemas de mando conjunto. Anthropic ha posicionado su marco de "IA Constitucional" (Constitutional AI) —que integra reglas de seguridad directamente en el código del modelo— como la opción confiable para aplicaciones de defensa. Al mantener una marca rigurosa que prioriza la seguridad, Anthropic se está labrando un nicho como la alternativa "responsable" al dominio de "moverse rápido" de OpenAI.
Sin embargo, el cambio de misión de OpenAI podría facilitar vínculos más estrechos con el gobierno de los EE. UU. de una manera diferente. Al eliminar el lenguaje de seguridad restrictivo que podría impedir el desarrollo de sistemas de armas o capacidades de ciberataque, OpenAI podría estar eliminando los obstáculos éticos que anteriormente impedían una colaboración profunda con el Departamento de Defensa. Una misión centrada puramente en los "beneficios" es lo suficientemente amplia como para abarcar los intereses de seguridad nacional, mientras que un mandato estricto de "seguridad" podría haberse interpretado como una prohibición de aplicaciones militares que inherentemente implican daño a los adversarios.
En última instancia, la eliminación de "de forma segura" de la declaración de misión sirve como señal de que el cronograma de la AGI se está comprimiendo. OpenAI ya no está operando en una fase de investigación teórica; está en una fase de despliegue. La empresa anticipa que los sistemas que lance en 2026 y 2027 serán lo suficientemente potentes como para remodelar la economía global, y está estructurando su gobierno para sobrevivir a las ondas de choque legales y financieras de esa disrupción.
Para el ecosistema más amplio, esto crea un precedente peligroso. Si el líder de la industria ya no considera la "seguridad" como un pilar central y declarado de su misión, aumenta la presión para que otros laboratorios escatimen en precauciones. La "carrera hacia el fondo" que temían los defensores de la seguridad parece estar acelerándose, con los documentos de gobierno corporativo siendo reescritos para acomodar la velocidad de la carrera.
A medida que OpenAI completa su metamorfosis en una entidad con fines de lucro, el mundo debe enfrentarse a una nueva realidad: la organización que construye la inteligencia más poderosa de la historia acaba de borrar la palabra diseñada para protegernos de ella.