4 ポイント 投稿者 GN⁺ 2026-02-14 | 1件のコメント | WhatsAppで共有
  • OpenAIは最近、ミッション文言から「安全に」という表現を削除し、人工知能が全人類に利益をもたらすことを保証するという新たな目標を明記
  • この変化は非営利構造から営利中心構造への転換と同時に行われ、MicrosoftやSoftBankなどから大規模な投資を誘致
  • 新構造では非営利財団(OpenAI Foundation)営利の公益企業(OpenAI Group) に分離され、前者が後者の約26%の持分を保有
  • しかしミッションから安全性への言及が消え、両組織とも安全に関する明示的な責任がなく、取締役会の説明責任が弱まる懸念が提起
  • 今回の変化は、AIが社会全体の利益を優先するのか、株主利益を優先するのかを試す事例と評価される

OpenAIのミッション変更と構造再編

  • OpenAIは2023年まで「安全に人類に利益をもたらすAIの開発」を目標として明示していたが、2024年のIRS報告書では「全人類に利益をもたらす人工知能を保証する」へと修正
    • safely と 「財務的リターンを生み出す必要に制約されない(unconstrained by a need to generate financial return)」という文言の両方が削除
    • Platformerの報道によれば、「ミッション・アラインメント・チーム(mission alignment team)」 も解体
  • OpenAIは現在もウェブサイト上では安全性・能力・ポジティブな影響の同時発展に言及しているが、公式ミッションには安全に関する表現がない

非営利から営利への転換

  • OpenAIは2015年に非営利研究所として設立され、研究成果を公開し、ロイヤルティなしで提供
  • 2019年、Sam Altman 主導で営利子会社を設立し、Microsoftが当初10億ドルを投資
    • 2024年までにMicrosoftの累計投資額は138億ドルに達した
  • 2024年末に66億ドルの追加資金を調達した際、伝統的な営利企業に転換しなければ負債に転換される条件が付された

新たな法的構造と利害関係

  • 2025年10月、カリフォルニア州およびデラウェア州の司法長官との合意を通じて、OpenAIは公益企業(public benefit corporation) 形態へ再編
    • OpenAI Foundation(非営利)と OpenAI Group(営利)に分離
    • FoundationがGroupの約4分の1の持分を保有し、Microsoftは27%を保有
  • 公益企業は社会的・環境的利益を考慮しなければならないが、利益と公益のバランスは取締役会の裁量に委ねられている
  • SoftBankは2025年末に410億ドルの投資を完了し、その後さらに300億ドルの追加投資を協議中

安全性に関する条項と限界

  • 再編合意書には、安全・セキュリティ委員会の設置製品リリースを停止する権限取締役会構成の統制権などが含まれる
    • OpenAI Groupの取締役会は、安全に関する事項では財務的利益よりミッションを優先して考慮しなければならない
  • しかしミッションに安全性が明記されていないため、取締役会が実際に安全を優先する法的根拠は弱い
  • 両組織の取締役の大半が同一であり、監督機能が実質的に重複している問題がある

代替モデルと規制論議

  • 1992年にHealth Netが営利化した際には、資産の80%を非営利財団へ移転するよう規制された事例がある
  • Philadelphia Inquirer は2016年、非営利のLenfest Institute が所有する公益企業へ移行し、地域ジャーナリズムの目的を維持
  • 一部のカリフォルニア州の非営利団体は、OpenAIの全資産を独立した非営利組織へ移すべきだと主張
  • 記事では、OpenAIの取締役会が安全ミッションを放棄し州政府がそれを容認したことをガバナンスの失敗として指摘

投資拡大と市場評価

  • OpenAIは2026年初め時点で、Amazon、Nvidia、Microsoft などから最大600億ドルの投資を誘致する可能性
  • 企業価値は2025年3月の3000億ドルから、2025年10月には5000億ドル超へ上昇
  • IPO(新規株式公開) の可能性にも言及されており、これは株主収益最大化への圧力を強める見通し
  • OpenAI Foundationの基金は約1300億ドル規模と推定されるが、非上場企業であるため市場価値ベースの推定値にすぎない

社会的意味

  • OpenAIのミッション変更と構造再編は、AI企業が公益と収益のどちらを優先するかを試す事例として提示されている
  • 安全性に関する文言の削除は、AIの社会的責任とリスク管理における後退と解釈されうる
  • 今後は公益企業モデルの実効性政府の監督の役割が主要な争点として浮上する

1件のコメント

 
GN⁺ 2026-02-14
Hacker Newsの意見
  • 各年の公式なミッションステートメントは、ProPublicaのIRS 990資料で確認できる
    私はそれらを集めてGistのリビジョンページにまとめ、年ごとの変更履歴を一目で見られるようにした
    詳細は私のブログ記事にも整理してある

    • これはあまりにも面白い。Animal Farmの戒律改変の場面を思い出す――「すべての動物は平等である」が「すべての動物は平等である、しかしある動物は他よりもっと平等である」に変わるような風刺そのものだ
    • 歴代ミッションの変更を実際に抽出してくれてありがとう。特に2021年には「...that benefits humanity」だったのが、2022年に「safely」が加わって「...that safely benefits humanity」に変わっていた。ところが最新版では「safely」が完全に消え、文もかなり短くなっている
      削除された単語にはresponsiblysafetechnologyworldなどがある
    • 2016年から2024年までの文言を抽出し、Claude Codeでコミット日付を操作してgitリポジトリのように見せたのは本当に見事だ。自動化されたアーカイブの良い実例だと思う
    • Gistでは句読点がかなり抜けているように見える
    • 本当に興味深い。Anthropicでもこういう形でミッションの変化を記録した資料があるのか気になる
  • 2025年4月のPreparedness Frameworkアップデートで、persuasion/manipulation項目が追跡カテゴリーから外れたのは大きなシグナルだった
    Fortuneの記事によれば、OpenAIは今やモデル公開前に説得・操作リスクを評価せず、代わりに利用規約で制限するとしている
    これは「AI安全」の意味をかなり具体的に定義したことになる――大量破壊兵器の設計と同じくらい、現実認識能力を失わせる操作型AIも人類への脅威になり得る

    • 「現実認識能力を失わせるシステム」って、それこそソーシャルメディアと広告技術のことでは?
      人間はすでに何十年も操作技術に慣らされてきており、これからはその規模と効率が増すだけだ。結局、少数はさらに豊かになり、多数はさらに苦しくなるだろう
    • これこそAIの本当の目的だ。人間の検閲者は良心の呵責を覚えるが、AIは命令された検閲を完璧に実行する。
      さらに恐ろしいのは、Cambridge Analytica式プロファイリングを超個別化して、人ごとに最適化された操作コンテンツを供給できる点だ
    • 「現実認識を失うのは結局個人の責任だ」と思う。何度もだまされながら自分で学ぼうとしないなら、それは怠惰の結果だ
  • 2024年版で「unconstrained by a need to generate financial return」という文句が削除されたのが決定的な変化だった。それを捨てたら何が残る?

    • 残るのは利益だけだ
    • しかも501(c)(3)の非営利団体としては、こうした変化は法的に問題になる可能性もある
  • 「safely」という言葉を外したのは、むしろ正直になっただけにも見える。Googleが「Don’t be evil」を捨てた時のように、偽善の仮面を外したわけだ

    • 同意しない。人々はPalantirやBroadcomのような露骨に邪悪な企業に対しても十分に怒る
    • 複雑な利害関係の中でも安全に働く組織は存在する。世界最高レベルの人材を抱えているなら、最低限その程度は期待されて当然だ
    • 私はGoogleで10年間AI研究をしていたが、proto LLM技術を世に出さないという決定は実際にSundarが下した。世界はまだ受け止めきれないと判断したのだ
  • Googleが「Don’t be evil」を捨てた時と同じシニカルな既視感がある

    • 代わりに「Do the right thing (for the shareholders)」になったようなものだ
  • 究極の問いはこれだ――私たちは先にロボット猫少女を楽しむことになるのか、それともいきなりターミネーターに行くのか?

    • 「ロボット」の語源はスラブ語の「rabu(奴隷)」だ。こういう冗談は奴隷制的な発想を反映している。考えを改めるか、消えるべきだ
  • OpenAIのミッションは最初から冗談みたいな宣言だった。「我々の研究が他者のAGI達成に寄与すればミッションは達成される」と言っていたのに、オープンソースモデルが自社モデルを学習に使ったと議会に訴えた

  • 企業がなぜこういうミッション文句を作るのか分からない。「悪にならない」という一文を消したからといって、より悪になるわけでもないのに、結局は偽善だけが露呈する

  • 新しいミッションは結局「profitably」に置き換えられたようなものだ。
    以前、上司に一日中会議室へ閉じ込められてミッション文句を作らされたことがあるが、額に入れて飾った後は誰も二度と見なかった。結局はマーケティング用の飾りにすぎない

  • 2024年6月、元NSA長官 Paul NakasoneがOpenAIの取締役会に加わり、2025年10月には成人向けコンテンツ生成の許可を発表した

    • 本当に薄気味悪い会社だ。強欲と監視が結びついた存在に見える
    • 関連動画リンク
    • 私の10年分の仕事を、こうした企業が無断で学習に使った。もし私のヌード写真まで持ち出してポルノを作るようなことがあれば、その怒りは想像したくもない