- OpenAIは最近、ミッション文言から「安全に」という表現を削除し、人工知能が全人類に利益をもたらすことを保証するという新たな目標を明記
- この変化は非営利構造から営利中心構造への転換と同時に行われ、MicrosoftやSoftBankなどから大規模な投資を誘致
- 新構造では非営利財団(OpenAI Foundation) と 営利の公益企業(OpenAI Group) に分離され、前者が後者の約26%の持分を保有
- しかしミッションから安全性への言及が消え、両組織とも安全に関する明示的な責任がなく、取締役会の説明責任が弱まる懸念が提起
- 今回の変化は、AIが社会全体の利益を優先するのか、株主利益を優先するのかを試す事例と評価される
OpenAIのミッション変更と構造再編
- OpenAIは2023年まで「安全に人類に利益をもたらすAIの開発」を目標として明示していたが、2024年のIRS報告書では「全人類に利益をもたらす人工知能を保証する」へと修正
safely と 「財務的リターンを生み出す必要に制約されない(unconstrained by a need to generate financial return)」という文言の両方が削除
- Platformerの報道によれば、「ミッション・アラインメント・チーム(mission alignment team)」 も解体
- OpenAIは現在もウェブサイト上では安全性・能力・ポジティブな影響の同時発展に言及しているが、公式ミッションには安全に関する表現がない
非営利から営利への転換
- OpenAIは2015年に非営利研究所として設立され、研究成果を公開し、ロイヤルティなしで提供
- 2019年、Sam Altman 主導で営利子会社を設立し、Microsoftが当初10億ドルを投資
- 2024年までにMicrosoftの累計投資額は138億ドルに達した
- 2024年末に66億ドルの追加資金を調達した際、伝統的な営利企業に転換しなければ負債に転換される条件が付された
新たな法的構造と利害関係
- 2025年10月、カリフォルニア州およびデラウェア州の司法長官との合意を通じて、OpenAIは公益企業(public benefit corporation) 形態へ再編
- OpenAI Foundation(非営利)と OpenAI Group(営利)に分離
- FoundationがGroupの約4分の1の持分を保有し、Microsoftは27%を保有
- 公益企業は社会的・環境的利益を考慮しなければならないが、利益と公益のバランスは取締役会の裁量に委ねられている
- SoftBankは2025年末に410億ドルの投資を完了し、その後さらに300億ドルの追加投資を協議中
安全性に関する条項と限界
- 再編合意書には、安全・セキュリティ委員会の設置、製品リリースを停止する権限、取締役会構成の統制権などが含まれる
- OpenAI Groupの取締役会は、安全に関する事項では財務的利益よりミッションを優先して考慮しなければならない
- しかしミッションに安全性が明記されていないため、取締役会が実際に安全を優先する法的根拠は弱い
- 両組織の取締役の大半が同一であり、監督機能が実質的に重複している問題がある
代替モデルと規制論議
- 1992年にHealth Netが営利化した際には、資産の80%を非営利財団へ移転するよう規制された事例がある
- Philadelphia Inquirer は2016年、非営利のLenfest Institute が所有する公益企業へ移行し、地域ジャーナリズムの目的を維持
- 一部のカリフォルニア州の非営利団体は、OpenAIの全資産を独立した非営利組織へ移すべきだと主張
- 記事では、OpenAIの取締役会が安全ミッションを放棄し、州政府がそれを容認したことをガバナンスの失敗として指摘
投資拡大と市場評価
- OpenAIは2026年初め時点で、Amazon、Nvidia、Microsoft などから最大600億ドルの投資を誘致する可能性
- 企業価値は2025年3月の3000億ドルから、2025年10月には5000億ドル超へ上昇
- IPO(新規株式公開) の可能性にも言及されており、これは株主収益最大化への圧力を強める見通し
- OpenAI Foundationの基金は約1300億ドル規模と推定されるが、非上場企業であるため市場価値ベースの推定値にすぎない
社会的意味
- OpenAIのミッション変更と構造再編は、AI企業が公益と収益のどちらを優先するかを試す事例として提示されている
- 安全性に関する文言の削除は、AIの社会的責任とリスク管理における後退と解釈されうる
- 今後は公益企業モデルの実効性と政府の監督の役割が主要な争点として浮上する
1件のコメント
Hacker Newsの意見
各年の公式なミッションステートメントは、ProPublicaのIRS 990資料で確認できる
私はそれらを集めてGistのリビジョンページにまとめ、年ごとの変更履歴を一目で見られるようにした
詳細は私のブログ記事にも整理してある
削除された単語にはresponsibly、safe、technology、worldなどがある
2025年4月のPreparedness Frameworkアップデートで、persuasion/manipulation項目が追跡カテゴリーから外れたのは大きなシグナルだった
Fortuneの記事によれば、OpenAIは今やモデル公開前に説得・操作リスクを評価せず、代わりに利用規約で制限するとしている
これは「AI安全」の意味をかなり具体的に定義したことになる――大量破壊兵器の設計と同じくらい、現実認識能力を失わせる操作型AIも人類への脅威になり得る
人間はすでに何十年も操作技術に慣らされてきており、これからはその規模と効率が増すだけだ。結局、少数はさらに豊かになり、多数はさらに苦しくなるだろう
さらに恐ろしいのは、Cambridge Analytica式プロファイリングを超個別化して、人ごとに最適化された操作コンテンツを供給できる点だ
2024年版で「unconstrained by a need to generate financial return」という文句が削除されたのが決定的な変化だった。それを捨てたら何が残る?
「safely」という言葉を外したのは、むしろ正直になっただけにも見える。Googleが「Don’t be evil」を捨てた時のように、偽善の仮面を外したわけだ
Googleが「Don’t be evil」を捨てた時と同じシニカルな既視感がある
究極の問いはこれだ――私たちは先にロボット猫少女を楽しむことになるのか、それともいきなりターミネーターに行くのか?
OpenAIのミッションは最初から冗談みたいな宣言だった。「我々の研究が他者のAGI達成に寄与すればミッションは達成される」と言っていたのに、オープンソースモデルが自社モデルを学習に使ったと議会に訴えた
企業がなぜこういうミッション文句を作るのか分からない。「悪にならない」という一文を消したからといって、より悪になるわけでもないのに、結局は偽善だけが露呈する
新しいミッションは結局「profitably」に置き換えられたようなものだ。
以前、上司に一日中会議室へ閉じ込められてミッション文句を作らされたことがあるが、額に入れて飾った後は誰も二度と見なかった。結局はマーケティング用の飾りにすぎない
2024年6月、元NSA長官 Paul NakasoneがOpenAIの取締役会に加わり、2025年10月には成人向けコンテンツ生成の許可を発表した