
2026年2月23日 — OpenAIは、自社の公式文書に対する微細ながらも極めて重要な更新において、主要なミッションステートメントから「安全に(safely)」という言葉を削除した。月曜日の早朝に確認されたこの文言の変更は、この人工知能(Generative AI)大手が営利目的の公益法人(Public Benefit Corporation, PBC)への移行を加速させる中で行われたものであり、安全性を重視する非営利の研究機関としての設立当初のエートスからの決定的な決別を意味している。
わずか一語の変更ではあるが、この変化はAI業界全体に波及し、同社がかつてそのブランドを定義していた予防原則よりも、展開速度と商業的存続可能性を優先しているという長年の疑念を裏付けるものとなった。サム・アルトマン(Sam Altman)がこれまでで最も議論を呼んでいる組織再編を通じて組織を導く中、「安全に」の削除は、簡潔にするための編集というよりも、法的義務を新たな攻撃的な運営の実態に合わせるためのものと思われる。
長年、OpenAIのミッションは、汎用人工知能(Artificial General Intelligence, AGI)が全人類に利益をもたらすこと、そしてそれが「安全に」開発されることを確実にするという二重のコミットメントによって規定されていた。同社の「憲章(Charter)」および「概要(About)」ページで公開された更新後のテキストでは、有益なAGIへのコミットメントは維持されているが、開発プロセスを修飾していたその副詞が顕著に脱落している。
この修正は単なる表面的なものではない。企業法のハイステークスな世界、特に公益法人(Public Benefit Corporation)において、ミッションステートメントは取締役会の責務の「北極星」として機能する。最上位のミッションから「安全に」という明示的な制約を取り除くことで、OpenAIは製品のリリースを遅らせたり、商業的パートナーシップを妨げたりする可能性のある安全プロセスから、法的に自らを解放しようとしているのかもしれない。
Creati.aiのアナリストは、アーカイブされたミッションステートメントと本日公開されたバージョンを並べて比較した。その違いは、抑制のない開発への明確なピボットを浮き彫りにしている。
表1:OpenAIのミッションステートメント(OpenAI Mission Statement)変更の比較分析
| 以前のミッションテキスト | 更新されたミッションテキスト | 戦略的意味合い |
|---|---|---|
| 汎用人工知能(AGI)が安全に開発され、全人類に利益をもたらすことを確実にする。 | 汎用人工知能(AGI)が全人類に利益をもたらすことを確実にする。 | 開発の前提条件としての安全性の明示的な義務を取り除き、「利益」という結果を優先させる。 |
| 私たちは、安全で有益なAGIを直接構築することを試みる。 | 私たちは、有益なAGIを直接構築することを試みる。 | 「有益」という概念を「安全性」から切り離し、有用性と経済的価値がリスク軽減に優先する可能性があることを示唆している。 |
| もし、価値観が一致し、安全性を意識したプロジェクトが、私たちより先にAGIの構築に近づいた場合、私たちは競争を停止することを約束する。 | もし、価値観が一致したプロジェクトが、私たちより先にAGIの構築に近づいた場合、私たちは競争を停止することを約束する。 | 「価値観が一致した」競合他社と見なされるしきい値を下げ、協力の基準から安全性プロトコルを削除する可能性がある。 |
この編集のタイミングは、OpenAIが営利目的の公益法人への再編を完了させる時期と密接に関連している。2025年後半以来、同社は当初の非営利ガバナンス取締役会の複雑な法的解散を進めてきた。この構造は、もともと「安全なAGI」というミッションが損なわれた場合にCEOを解任できるように設計されたものだった。
非営利の取締役会が事実上脇に追いやられたことで、新しいPBC構造により、OpenAIは「公共の利益」と利益のバランスを取ることを条件に、法的に株主還元を追求することが可能になった。ミッションステートメントから「安全に」を削除することで、このバランス調整は簡素化される。もし「安全性」が主要で同等のミッションの柱として残っていれば、取締役会のメンバーは、リスクがゼロではないモデルをリリースしたとして理論的に会社を提訴することができた。この言葉を削除することで、「公共の利益」の定義はより柔軟になり、「リスク回避」ではなく「経済成長」や「技術へのアクセス」として解釈される可能性が高くなる。
法的な専門家は、これが防御的な動きであると示唆している。「PBCにおいて、ミッションは法律です」と、テクノロジー専門の企業ガバナンス弁護士であるサラ・ジェンキンス(Sarah Jenkins)氏は説明する。「もしミッションに『安全に』行動することが求められていれば、モデルがハルシネーションを起こしたり悪用されたりするたびに、株主訴訟に対して脆弱になります。この言葉を削除することで、OpenAIは責任の盾を下げ、急速な商業化への滑走路を確保しているのです。」
この動きは、AIの安全性(AI safety)コミュニティや元OpenAI従業員からの即座の反発を引き起こした。過去2年間で徐々に会社から排除されてきた「安全性重視」派は、これを組織の当初の約束に対する最後の一撃と見なしている。
批評家たちは、安全性に対する明示的な義務がなければ、OpenAIは実質的に他のビッグテック企業と同様に活動しており、潜在的に存亡に関わる重大な結果をもたらす技術を保有しているにもかかわらずだと主張している。「これは意図の宣言です」と、匿名を条件に応じた元スーパーアライメント(Superalignment)チームのリードは指摘した。「彼らは世界に対し、来週モデルをリリースするか、あと半年テストするかのトレードオフがあれば、リリースを選択すると伝えているのです。安全策は今やオプションの機能であり、基礎的な制約ではありません。」
逆に、加速主義(e/acc)キャンプの多くを含むこの変更の支持者たちは、「安全に」という言葉が進歩を停滞させるために武器化された用語になっていたと主張している。彼らは、人類にとっての最大の不利益は制御不能なAIではなく、病気の治療や気候変動の解決のためのAIソリューションの導入に失敗することだと主張している。この観点からは、ミッションの更新は技術の可能性を最大限に引き出すために必要な修正である。
OpenAIにおけるこの転換は、主要な競合他社が採用している戦略とは対照的である。OpenAIが文言を和らげる一方で、Anthropicは政府契約を確保するための独自のセールスポイントとして、安全性をさらに強化していると報じられている。
*ニューヨーク・タイムズ(The New York Times)*の報道によると、ペンタゴン(米国国防総省)は現在、統合指揮システムのための主要なAIパートナーシップを評価している。Anthropicは、モデルのコードに直接安全規則を組み込む「憲法AI(Constitutional AI)」フレームワークを、防衛用途における信頼できる選択肢として位置づけている。厳格な安全性第一のブランディングを維持することで、AnthropicはOpenAIの「迅速な行動」による支配に対する「責任ある」代替案としてのニッチを築こうとしている。
しかし、OpenAIのミッション変更は、実際には別の方法で米国政府とのより緊密な結びつきを促進する可能性がある。兵器システムの開発や攻撃的なサイバー能力の構築を妨げる可能性のある制限的な安全性の文言を削除することで、OpenAIはこれまで国防総省との深い協力関係を妨げていた倫理的なハードルを取り除いているのかもしれない。純粋に「利益」に焦点を当てたミッションは、国家安全保障上の利益を包含するのに十分な広さがあるが、厳格な「安全性」の義務は、本質的に敵対者への危害を伴う軍事利用を禁止するものと解釈される可能性があったためである。
結局のところ、ミッションステートメントからの「安全に」の削除は、AGIのタイムラインが圧縮されているというシグナルとして機能している。OpenAIはもはや理論的な研究段階にあるのではなく、展開段階にある。同社は、2026年と2027年にリリースするシステムが世界経済を再構築するのに十分強力であると予想しており、その混乱による法的および財務的な衝撃に耐えられるようにガバナンスを構築しているのである。
より広範なエコシステムにとって、これは危険な前例を作る。業界のリーダーがもはや「安全性」をミッションの中核的かつ明示的な柱と見なさなくなれば、他の研究所が手を抜くことへの圧力が高まる。安全性擁護派が恐れていた「底辺への競争(race to the bottom)」は加速しているようで、企業のガバナンス文書は競争の速度に合わせて書き換えられている。
OpenAIが営利団体への変貌を完了させる中、世界は新たな現実に直面しなければならない。歴史上最も強力な知能を構築している組織が、私たちをそれから守るために考案された言葉を削除したばかりなのだ。