
23. Februar 2026 – In einer subtilen, aber seismisch bedeutsamen Aktualisierung seiner Unternehmensdokumentation hat OpenAI das Wort „safely“ (sicher) aus seinem primären Leitbild (Mission Statement) entfernt. Dieser linguistische Wandel, der am frühen Montagmorgen beobachtet wurde, erfolgt zu einem Zeitpunkt, an dem der Gigant der Künstlichen Intelligenz (Artificial Intelligence, AI) seinen Übergang in eine gewinnorientierte Gemeinnützige Aktiengesellschaft (Public Benefit Corporation, PBC) beschleunigt, was eine endgültige Abkehr von seinem Gründungsethos als sicherheitsorientiertes gemeinnütziges Forschungslabor markiert.
Die Änderung, obwohl sie nur aus einem einzigen Wort besteht, hallt in der KI-Branche wider und bestätigt lang gehegte Vermutungen, dass das Unternehmen die Geschwindigkeit der Bereitstellung und die kommerzielle Rentabilität über die Vorsorgeprinzipien stellt, die einst seine Marke definierten. Während Sam Altman die Organisation durch ihre bisher umstrittenste Umstrukturierung steuert, scheint die Entfernung von „safely“ weniger eine redaktionelle Kürzung als vielmehr eine Ausrichtung der rechtlichen Verpflichtungen an eine neue, aggressive operative Realität zu sein.
Jahrelang war die Mission von OpenAI durch eine doppelte Verpflichtung kodifiziert: sicherzustellen, dass Künstliche Allgemeine Intelligenz (Artificial General Intelligence, AGI) der gesamten Menschheit zugutekommt, und sicherzustellen, dass sie sicher entwickelt wird. Der aktualisierte Text, der nun auf den Seiten „Charter“ und „About“ des Unternehmens live ist, behält die Verpflichtung zu einer nützlichen AGI bei, lässt aber auffällig das Adverb weg, das den Entwicklungsprozess qualifizierte.
Diese Modifikation ist nicht nur kosmetischer Natur. In der hochriskanten Welt des Gesellschaftsrechts – insbesondere für eine Public Benefit Corporation – dienen Leitbilder als „Nordstern“ für die Pflichten des Vorstands. Durch die Entfernung der expliziten Einschränkung „safely“ aus der übergeordneten Mission könnte sich OpenAI rechtlich von Sicherheitsprozessen entlasten, die Produktveröffentlichungen verlangsamen oder kommerzielle Partnerschaften behindern könnten.
Analysten bei Creati.ai haben einen direkten Vergleich des archivierten Leitbilds mit der heute veröffentlichten Version durchgeführt. Die Unterschiede verdeutlichen einen klaren Schwenk hin zu einer uneingeschränkten Entwicklung.
Tabelle 1: Vergleichende Analyse der Änderungen am OpenAI-Leitbild
| Vorheriger Text des Leitbilds | Aktualisierter Text des Leitbilds | Strategische Implikation |
|---|---|---|
| Sicherzustellen, dass künstliche allgemeine Intelligenz (AGI) sicher entwickelt wird und der gesamten Menschheit zugutekommt. | Sicherzustellen, dass künstliche allgemeine Intelligenz (AGI) der gesamten Menschheit zugutekommt. | Entfernt das explizite Mandat für Sicherheit als Voraussetzung für die Entwicklung und priorisiert das Ergebnis des „Nutzens“. |
| Wir werden versuchen, direkt eine sichere und nützliche AGI aufzubauen. | Wir werden versuchen, direkt eine nützliche AGI aufzubauen. | Entkoppelt das Konzept des „Nutzens“ von der „Sicherheit“ und impliziert, dass Nützlichkeit und wirtschaftlicher Wert nun der Risikominderung vorgehen können. |
| Wenn ein werteorientiertes, sicherheitsbewusstes Projekt dem Bau einer AGI nahekommt, bevor wir es tun, verpflichten wir uns, den Wettbewerb einzustellen. | Wenn ein werteorientiertes Projekt dem Bau einer AGI nahekommt, bevor wir es tun, verpflichten wir uns, den Wettbewerb einzustellen. | Senkt die Schwelle für das, was einen „werteorientierten“ Konkurrenten ausmacht, und entfernt potenziell Sicherheitsprotokolle als Kriterium für eine Zusammenarbeit. |
Der Zeitpunkt dieser Bearbeitung ist untrennbar mit dem Abschluss der Umstrukturierung von OpenAI in eine gewinnorientierte Gemeinnützige Aktiengesellschaft verbunden. Seit Ende 2025 navigiert das Unternehmen durch die komplexe rechtliche Auflösung seines ursprünglichen gemeinnützigen Aufsichtsrats, einer Struktur, die ursprünglich darauf ausgelegt war, den CEO zu entlassen, falls die Mission einer „sicheren AGI“ gefährdet würde.
Da der gemeinnützige Vorstand nun faktisch an den Rand gedrängt wurde, erlaubt die neue PBC-Struktur OpenAI, legal Aktionärsrenditen zu verfolgen, sofern diese Gewinne mit einem „öffentlichen Nutzen“ in Einklang gebracht werden. Die Streichung von „safely“ aus dem Leitbild vereinfacht diesen Balanceakt. Wenn „Sicherheit“ eine primäre, gleichrangige Säule der Mission bleibt, könnte ein Vorstandsmitglied das Unternehmen theoretisch verklagen, wenn es ein Modell veröffentlicht, das ein Risiko ungleich Null birgt. Durch die Entfernung des Wortes wird die Definition von „öffentlichem Nutzen“ formbarer – wahrscheinlich interpretiert als „Wirtschaftswachstum“ oder „technologischer Zugang“ anstatt als „Risikovermeidung“.
Rechtsexperten vermuten, dass dies ein Verteidigungsmanöver ist. „In einer PBC ist die Mission das Gesetz“, erklärt Sarah Jenkins, eine auf Technologie spezialisierte Anwältin für Corporate Governance. „Wenn Ihre Mission verlangt, dass Sie ‚sicher‘ handeln, sind Sie jedes Mal anfällig für Aktionärsklagen, wenn ein Modell halluziniert oder missbraucht wird. Durch die Streichung des Wortes senkt OpenAI seinen Haftungsschutz, um den Weg für eine schnelle Kommerzialisierung freizumachen.“
Der Schritt hat sofortige Reaktionen in der Gemeinschaft für KI-Sicherheit (AI safety) und bei ehemaligen OpenAI-Mitarbeitern ausgelöst. Die Fraktion der „Sicherheitsexperten“, die in den letzten zwei Jahren schrittweise aus dem Unternehmen gedrängt wurde, sieht dies als den letzten Nagel im Sarg für das ursprüngliche Versprechen der Organisation.
Kritiker argumentieren, dass OpenAI ohne das explizite Mandat für Sicherheit faktisch wie jedes andere Big-Tech-Unternehmen agiert, obwohl es über eine Technologie von potenziell existenzieller Tragweite verfügt. „Es ist eine Absichtserklärung“, bemerkte ein ehemaliger Leiter des Superalignment-Teams, der anonym bleiben wollte. „Sie sagen der Welt, dass sie sich bei einem Kompromiss zwischen der Veröffentlichung eines Modells nächste Woche oder dessen Prüfung für weitere sechs Monate für die Veröffentlichung entscheiden werden. Die Sicherheitsvorkehrungen sind jetzt optionale Funktionen, keine grundlegenden Einschränkungen.“
Umgekehrt argumentieren Befürworter der Änderung – darunter viele im Lager der Akzelerationisten (e/acc) –, dass das Wort „safely“ zu einem als Waffe eingesetzten Begriff geworden war, um Fortschritte aufzuhalten. Sie machen geltend, dass das größte Risiko für die Menschheit nicht eine abtrünnige KI ist, sondern das Versäumnis, KI-Lösungen zur Heilung von Krankheiten und zur Lösung des Klimawandels einzusetzen. Aus dieser Sicht ist die Aktualisierung der Mission eine notwendige Korrektur, um das volle Potenzial der Technologie freizusetzen.
Der Schwenk bei OpenAI steht in starkem Kontrast zu den Strategien seiner Hauptkonkurrenten. Während OpenAI seine Sprache aufweicht, setzt Anthropic Berichten zufolge verstärkt auf Sicherheit als Alleinstellungsmerkmal, um Regierungsaufträge zu sichern.
Laut Berichten der The New York Times evaluiert das Pentagon derzeit wichtige KI-Partnerschaften für seine gemeinsamen Führungssysteme. Anthropic hat sein Framework für „Konstitutionelle KI“ (Constitutional AI) – das Sicherheitsregeln direkt im Code des Modells verankert – als die zuverlässige Wahl für Verteidigungsanwendungen positioniert. Durch die Beibehaltung eines strengen, sicherheitsorientierten Brandings erarbeitet sich Anthropic eine Nische als die „verantwortungsbewusste“ Alternative zur „Move Fast“-Dominanz von OpenAI.
Die Änderung der Mission von OpenAI könnte jedoch tatsächlich engere Beziehungen zur US-Regierung auf eine andere Weise erleichtern. Durch die Entfernung restriktiver Sicherheitssprache, die die Entwicklung von Waffensystemen oder offensiven Cyber-Fähigkeiten ausschließen könnte, könnte OpenAI die ethischen Hürden aus dem Weg räumen, die zuvor eine tiefe Zusammenarbeit mit dem Verteidigungsministerium (Department of Defense) verhinderten. Eine Mission, die sich rein auf „Nutzen“ konzentriert, ist breit genug, um nationale Sicherheitsinteressen einzuschließen, während ein striktes „Sicherheits“-Mandat so interpretiert hätte werden können, dass es militärische Anwendungen verbietet, die inhärent die Schädigung von Gegnern beinhalten.
Letztendlich dient die Entfernung von „safely“ aus dem Leitbild als Signal dafür, dass sich der AGI-Zeitplan verdichtet. OpenAI operiert nicht mehr in einer theoretischen Forschungsphase; es befindet sich in einer Bereitstellungsphase. Das Unternehmen geht davon aus, dass die Systeme, die es 2026 und 2027 veröffentlicht, leistungsstark genug sein werden, um die Weltwirtschaft umzugestalten, und es strukturiert seine Governance so um, dass es die rechtlichen und finanziellen Schockwellen dieser Disruption übersteht.
Für das breitere Ökosystem schafft dies einen gefährlichen Präzedenzfall. Wenn der Branchenführer „Sicherheit“ nicht mehr als Kernpfeiler seiner Mission betrachtet, steigt der Druck auf andere Labore, Abkürzungen zu nehmen. Der „Wettlauf nach unten“ (Race to the Bottom), den Sicherheitsbefürworter befürchteten, scheint sich zu beschleunigen, wobei Corporate-Governance-Dokumente umgeschrieben werden, um der Geschwindigkeit des Rennens gerecht zu werden.
Während OpenAI seine Metamorphose in ein gewinnorientiertes Unternehmen abschließt, muss die Welt mit einer neuen Realität rechnen: Die Organisation, die die leistungsstärkste Intelligenz der Geschichte aufbaut, hat gerade das Wort gelöscht, das uns davor schützen sollte.