Sam Altmanが私たちの未来を支配するかもしれない――彼を信頼できるのか?
(newyorker.com)- OpenAIは設立当初から、AIを人類史上最も強力で、潜在的に危険な技術と位置づけ、非営利法人として出発し、人類の安全を会社の存続より優先する構造を採用していたが、その後、営利法人へと転換する中で、その原則は形骸化しつつある
- 2023年11月、共同創業者Ilya Sutskever主導で取締役会がAltmanを電撃解任しながら、5日後に復帰させた「Blip」事件は、Altmanの信頼性と透明性に対する根本的な疑念が、実際の組織内権力闘争として爆発した事例だった
- 元同僚たちが残した数百ページに及ぶ記録には、Altmanが取締役会・経営陣・投資家に対して繰り返し事実を隠蔽したり、異なる説明をしたりしたという具体的主張が盛り込まれており、ある取締役は彼を**「真実に拘束されない人物」**と表現した
- OpenAIは現在、企業価値1兆ドル規模のIPOを準備しており、Altmanは湾岸諸国の資金を活用した大規模AIインフラ構築や米軍との契約確保を推進し、AI覇権競争の中核ブローカーの役割を担っている
- AI安全研究チームが相次いで解散され、安全より製品・収益を優先する文化が定着する中、OpenAIの実存的安全性の体制は創業時の約束からますます遠ざかっている
解任事件の発端 — Ilyaメモと取締役会の決定
- 2023年秋、OpenAIのチーフサイエンティストIlya Sutskeverが、CEOのSam Altmanと社長のGreg Brockmanの適格性に疑義を呈する70ページに及ぶ機密メモを、他の取締役3人に送付した
- SlackメッセージやHR文書を編集した内容で、検知を避けるため個人端末で撮影した画像も含まれていた
- 外部流出を防ぐため、消えるメッセージ形式で送信された
- メモは、Altmanが経営陣や取締役会に対して事実を歪め、社内の安全プロトコルについて欺いたと主張していた
- メモ最初の項目の見出し: "Sam exhibits a consistent pattern of… Lying"
- 取締役のHelen Toner(AI政策の専門家)、Tasha McCauley(起業家)は、このメモを「すでに信じていたことの確認」と受け止めた
- AltmanがラスベガスでF1レースを観戦していた際、Sutskeverがビデオ通話で解任を通告した
- 公開発表文では、単に「コミュニケーションにおいて一貫して率直ではなかった」とだけ記された
「Blip」 — 解任後5日間の権力闘争
- Microsoftは解任直前になって初めて通知を受け、Satya Nadellaは「何が起きたのかまったく分からなかった」と述べた
- OpenAIに86億ドル評価での投資を準備していたThrive Capitalは、Altman復帰を条件に投資を保留した
- Altmanは帰宅直後、自宅に危機対応チームの作戦室を設けた
- 投資家のRon Conway、Airbnb共同創業者のBrian Chesky、危機管理の専門家Chris Lehaneらが参加
- 弁護士たちは寝室横のオフィスに常駐し、Altmanはパジャマ姿で歩き回っていた
- Altman側が、Mira Muratiら反対陣営の人物について「評判を傷つける情報を探している」と警告したという証言がある(Altmanは覚えていないとして否定)
- Microsoftは、Altmanと離脱した従業員のための別チーム創設を発表し、圧力をかけた
- OpenAI社員の大半がAltman復帰を求める公開書簡に署名し、取締役会は解任を撤回した
- Sutskeverも最終的に書簡に署名し、取締役会は「会社が崩壊する」という圧力の末に復帰を決定した
復帰後 — 調査の無力化とガバナンス再編
- Altmanは、自身を解任した取締役たちの辞任を要求し、解任に賛成したHelen Toner、Tasha McCauley、Sutskeverは取締役会から排除された
- 退任条件として独立した外部調査を要求し、新たな取締役の選任ではAltmanと緊密に協議した人物たちが選ばれた
- Lawrence Summers、Bret Taylorが新任取締役として加わった
- 法律事務所WilmerHaleが調査を担当したが、6人以上が「透明性を制限するよう設計された調査」だったと主張した
- 重要関係者への聞き取り漏れや、匿名性の保証不足などが指摘された
- 2024年3月、OpenAIはAltmanを無責と結論づけたが、報告書そのものを作成しなかった
- 口頭ブリーフィングのみが行われ、報告書を作成しない判断はSummers・Taylorの個人弁護士の助言によるものとされる
- 「報告書が存在しないことが、疑惑の矮小化に寄与した」という関係者証言もある
- Summersはその後、Jeffrey Epstein関連のメール公開を受けて取締役を辞任した
- その後OpenAIは、1兆ドルIPOの準備とともに、世界で最も価値の高い企業の一つへと成長した
- AltmanはAIインフラ拡張、政府契約、監視・兵器システムの標準化などにも関与している
- しかし社内では、Altmanの欺瞞的な振る舞いが繰り返されているという批判が続いている
Altmanの性格と初期経歴 — 誇張・説得・権力欲
- ミズーリ州クレイトン出身で裕福な家庭に育ち、10代の頃には同性愛嫌悪に基づく暴行を受けた経験がある
- スタンフォード在学中、ポーカーゲームを通じてビジネス感覚を磨き、中退後は**Y Combinator(YC)**の第1期創業者として参加し、Looptを設立した
- Looptは位置情報ベースのSNSだったが成長に失敗し、2012年に売却された
- Loopt時代から誇張する傾向が指摘されていた。自身を卓球チャンピオンだと自慢していたが、実際にはオフィスでも最下位レベルだった
- 元社員Mark Jacobstein: 「自分が思っていることと、すでに達成したことの境界が曖昧になるのが、最悪の形で進むとTheranosになる」と述べた
- 社員グループが取締役会に対して2度にわたり解任を求めたが、不発に終わった
- Looptは2012年にフィンテック企業へ売却されたが、「Altmanの面子を保つために主に用意された取引だった」という関係者証言がある
- Paul Grahamは2014年、自身の後任としてAltmanをY Combinator代表に指名した
- Grahamがその知らせを伝えると、Altmanは「it worked」という抑えきれない笑みを浮かべたと描写されている
Y Combinator在任時代 — 利益相反と退任の経緯
- YC代表として、投資家の参加を妨げ、自ら選別的に個人投資を行っていたとの批判が提起された(Altmanは否定)
- Stripeへの投資時、Sequoia Capitalの取り決めより大きな持ち分を要求し、パートナーたちを当惑させたという関係者証言がある
- Altmanの初回投資15,000ドル(2%)→ Stripeの現在価値は1,500億ドル超
- 2018年、複数のYCパートナーがGrahamにAltmanの行動への不満を訴えた
- Grahamは私的な場で「Sam had been lying to us all the time」と述べたと、複数の関係者が証言している
- Altmanは解任されたことはないと主張し、Grahamも公式発表では否定したが、内部記録は「完全に相互合意の別れではなかった」ことを示唆している
- 2021年のSEC開示ではAltmanがYC会長として記載されていたが、本人は「後になって知った」と主張した
OpenAI設立 — 安全という大義名分と資金調達の二面性
- 2015年、Elon Muskにメールで**「AIは核兵器より危険になり得る」**という論理で接触し、OpenAIを「AI版マンハッタン計画」として提案
- 2人はOpenAIを共同設立し、Muskは10億ドルの資金拠出を約束
- OpenAIは「人類全体の利益のためのAGI開発」を目標に掲げ、AGI独裁の防止を中核原則としていた
- 設立原則: "安全が最優先要件"、"あらゆる規制を積極的に支持"
- 2017年、MuskはOpenAIを営利企業に転換して支配権を確保することを求めたが、Altmanが拒否
- その後Muskは離れ、2023年に競合のxAIを設立し、AltmanとOpenAIを相手取って詐欺・慈善信託違反の訴訟を提起(係争中)
- 初期の従業員には純粋な非営利のまま維持すると約束し、給与削減も受け入れさせたが、内部文書には2017年からすでに営利転換を議論していた痕跡がある
- Sutskeverは2017年にGoogleのTransformerアーキテクチャ論文を読み、"これだ"と叫んでチームに全面的な方向転換を促し、その後GPTの種になった
- 一部のエンジニアは「自分たちが悪役になってしまったのではないか」としてリーダーシップに疑問を呈した
Dario AmodeiとAnthropic創業 — 安全原則の亀裂
- Amodeiは"My Experience with OpenAI"という200ページ超の個人的なノートを何年にもわたって書いていた
- 2018年、Dario AmodeiはOpenAIの使命の不明確さと資金中心の運営を批判
- 「別のプロジェクトが先に安全なAGIを作ったなら協力する」という**『Merge and Assist条項』**を提案
- 2019年のMicrosoft投資契約の過程で、その条項を無力化する文言がひそかに追加された
- Altmanは当初その条項の存在を否定したが、Amodeiが直接読み上げると否定を撤回
- **「彼は言っていない。今あなたが言った」**という趣旨の発言が繰り返されたとされる(Altmanは記憶にないと否定)
- Amodeiは、Altmanが自分と姉のDanielaを「クーデターを画策している」と決めつけたと主張し、Danielaが当事者の役員を呼んで確認すると、Altmanは「私はそんなことは言っていない」と発言
- 2020年、Amodei姉弟と同僚たちが退職してAnthropicを創業
安全チーム解散と資源約束の不履行
- 2023年に"スーパーアライメントチーム(superalignment team)"の設立を発表した際、**「確保した計算資源の20%」**を提供すると約束
- 実際に割り当てられた資源は1〜2%水準で、老朽クラスターと低性能チップが充てられたというチーム内部の証言
- 研究者らは「最新チップは収益事業にしか使われなかった」と主張し、OpenAIはこれを否定
- チームリーダーのJan Leikeは「この約束は人材引き留めの手段だった」と述べた
- Muratiに抗議したが、「現実的でない約束だった」と返答された
- Jan Leikeは取締役会にメールを送り、「OpenAIは任務から逸脱しつつある。製品・収益・AI能力が優先で、安全は3番目だ」と警告
- Carroll Wainwright: "GPT-4のリリース後も、製品優先・安全軽視が続いた"
- AltmanはGPT-4 Turboモデルのリリース時、安全承認は不要だと法務責任者に言及したが、法務責任者はSlackで"samがなぜそういう印象を持ったのかわからない"と返答
- SutskeverはAGIが間近に迫っていると信じるようになり、安全問題に執着するようになって、「全従業員が安全に集中しなければ破綻する」と警告
- しかしSuperalignmentチームは結局、任務完了前に解体され、目標を達成できなかった
- SutskeverとLeikeは同時に辞任
- IRS開示で「最も重要な活動」の項目から**『安全』の概念が削除**された
- Future of Life Instituteの最新のAI企業実存的安全評価で、OpenAIはF評価を受けた
- AltmanはGPT-4の一部機能が安全パネルの承認を受けたと述べたが、『fine-tuning』と『personal assistant』機能は承認されていない
- Microsoftがインドで安全審査なしにChatGPT初期版を公開した事実も報告しなかった
- 研究者らは、OpenAIが**「製品優先、安全は後回し」**へと転換したと評価
営利化、資産構造、個人的利害関係
- 当初の「収益上限付き企業(capped profit)」構造から、2024年10月に完全な営利法人へ転換
- 非営利財団(OpenAI Foundation)は26%の持分のみを保有し、取締役の大半は営利側の取締役会と重複
- 取締役会メンバーのHolden Karnofskyは非営利法人の価値の過小評価に反対票を投じたが、議事録では棄権として記録された(同意なく変更された可能性)
- 議会公聴会で「OpenAIの持分はない、愛があるからやっている」と発言したが、YCファンドを通じた間接持分には言及しなかった
- Brockmanの持分は約200億ドル相当と推定され、Altmanの持分はこれより大きいとみられる
- 元従業員の証言: Altmanは「自分は金より権力に関心がある」と発言
中東からの資金調達と地政学的リスク
- 2016年、サウジ皇太子Mohammed bin Salmanと初めて会い、その後、数十億ドル規模の投資を模索
- カショギ暗殺の1週間後、サウジの未来都市Neomの諮問委員会に参加し、その後批判を受けて辞任
- しかし辞任後も、「どうにかしてサウジ資金を受けられないか」を考えていたという政策コンサルタントの証言
- UAEのスパイマスターSheikh Tahnoon bin Zayedと緊密な関係を維持し、自身のXで「親しい個人的友人」と言及
- UAEから約200万ドルのKoenigsegg Regera、約2,000万ドルのMcLaren F1を受領(会社方針に従って開示済みだと主張)
- 2024年にはTahnoonの2億5,000万ドルの超豪華ヨットMaryahを訪問
- ChipCo構想: 湾岸諸国の資金で巨大な半導体ファウンドリーとデータセンターを建設し、一部を中東に配置
- 取締役会に事前通知せず進められたという取締役の証言
- 米国の安全保障当局は、UAE通信網のHuawei依存、米先端チップの中国流出の可能性、軍事攻撃への脆弱性などを懸念
- Biden政権は「UAEに先端チップを建設することはない」として承認を拒否
- RAND Corporationの職員は、安全保障許可の審査で「外国政府から数百億ドルを調達中の人物」だとして懸念を表明し、Altmanは手続きから自発的に離脱
- Trump就任から2日後、AltmanはルーズベルトルームでStargate — 5,000億ドル規模のAIインフラ共同プロジェクト — を発表
- その後、サウジ・UAEへのStargate拡張を発表し、Abu Dhabiにセントラルパークの7倍規模のデータセンターキャンパスを建設する計画
政治的変身と規制ロビー活動
- 2023年の上院公聴会では、AI規制を自ら求めるかのような発言で好感を得たが、水面下ではEUのAI規制緩和に向けたロビー活動を進めていた
- カリフォルニア州のAI安全法案(SB 1047)に公然と反対し、舞台裏では威圧的な圧力を行使
- Ron ConwayがPelosi・Newsomにロビー活動を行い、Newsomは議会通過法案に拒否権を行使
- OpenAIの公式見解は「super PACには寄付しない」だが、BrockmanはLeading the Future PACに5,000万ドルを寄付(同年、MAGA Inc.にも2,500万ドルを寄付)
- AI安全法案支持者のNathan Calvinに召喚状を発行し、法案批判者にも同様の措置
- 「要するに口を閉ざさせようとしている」という関係者の発言
- 2016年にTrumpを「前例のない脅威」と呼んでいたAltmanは、2024年にTrump就任式基金へ100万ドルを寄付し、Trump側近として台頭
- Muskが2億5,000万ドルを投じて支援したTrumpと距離を置く一方で、AltmanはTrumpのサウジ訪問に同行
Anthropic vs. 米国防総省 — OpenAIの機会捕捉
- Anthropicは 完全自律型兵器の支援および国内での大規模監視の禁止 という原則を維持
- 国防長官Pete Hegsethが期限を切って原則撤回を要求したが、Anthropicは拒否
- HegsethはAnthropicを「サプライチェーン・リスク」に指定(Huaweiなど中国企業に適用されていたブラックリスト措置)
- OpenAI・Googleなどの従業員が「We Will Not Be Divided」という公開書簡でAnthropicを支持
- AltmanはAnthropicと国防総省の対立が公になる前から、すでに国防総省との交渉を進めていた
- 国防次官補Emil MichaelがAltmanに連絡し、「彼はすぐに飛び込んできた。愛国者だと思う」と発言
- 500億ドル規模 のAWS統合契約を発表し、米軍がOpenAIモデルの利用を開始
- 契約発表当日、OpenAIの企業価値は 1,100億ドル上昇 し、同時にシニア社員少なくとも2人がAnthropicへ転職
- 従業員から懸念が示されると、Altmanは「イラン空爆が良いと思おうが、ベネズエラ侵攻が悪いと思おうが、あなたたちは関与できない」と発言
アルトマンの信頼性をめぐる論争 — さまざまな証言
- Altmanは 世代最高のセールスマン と呼ばれ、Steve Jobsの現実歪曲フィールド にもたとえられる
- 同僚たちは彼の 欺瞞的な性向と権力への意志 を問題視
- 一部は彼を「ソシオパス的な人物」と表現し、Aaron Swartz(YC第1期の同期)も生前「Samは絶対に信用してはいけない、ソシオパスだ」と警告していたとされる
- Altmanは コーディングや機械学習の専門性には乏しい が、他者の技術力と資本を結集する能力 によってOpenAIを成長させた
- 彼は 制約となる構造を先に作っておき、必要なときにそれを無力化する というやり方で行動する
- 関係者は彼の説得力を「Jedi mind trick」になぞらえた
- Microsoftの幹部たちは、Altmanが 合意を歪め、破棄した と主張
- OpenAIはMicrosoftを独占クラウド提供者に指定しながら、Amazonと500億ドル規模の再販契約 を締結
- Microsoftは契約の衝突を問題視したが、OpenAIは違反ではないと主張
- ある幹部は、Altmanは「Sam Bankman-Fried級の詐欺師として記憶されるかもしれない」と評した
- Altmanは バイデン政権 と 機微技術の輸出承認政策 に関する議論に参加したが、一部の当局者は彼の 中東関連の野心 を懸念
- トランプ就任直前、タフヌーンがトランプ一族の企業に5億ドルを投資した後、Altmanはトランプと通話
- その後、ホワイトハウスで 5,000億ドル規模の「Stargate」AIインフラ・プロジェクト を発表
- トランプ政権は AI技術の輸出規制を撤回 し、Altmanとトランプは サウジ王室 を訪問
- 元取締役のYoon:「マキャヴェリ的な悪党ではなく、自己確信にあまりにも深くはまり込んだ人、現実世界に生きていない人」
- Altmanの姉Annieは性的虐待を主張する訴訟を提起し、Altmanは全面否認、家族も「まったくの事実無根」と反論(原文確認不可)
- Altman:「競合他社による不快な行為であり、未成年者関連や殺人関与を含むあらゆる主張は完全に事実無根だ」
AI安全の現在 — 約束と現実の隔たり
- Anthropic は300億ドルを調達した後、安全に関する約束を緩和 し、速度競争 が激化
- Anthropicは Palantir と協力し、Claudeモデルを軍事システムに統合、ペンタゴンの作戦 に使用
- その後、サプライチェーン・リスク企業 に指定され、ブラックリスト に掲載
- OpenAIは 国防総省と交渉 を進め、AWSベースの国防インフラ統合契約(500億ドル規模) を締結
- 同日、OpenAIの 企業価値は1,100億ドル上昇 し、一部の従業員は退職
- 一部の幹部は、Altmanのリーダーシップには 深刻なガバナンス問題 があると評価
- Fidji Simo が後任候補として取り沙汰される
- OpenAIは Superalignmentチーム と AGI準備チーム を解体
- Sutskever と Leike が退職し、「安全より派手な製品が優先されている」と批判
- IRS報告書では 「安全」項目が削除 され、Future of Life Instituteの 実存的安全性評価でF評価 を受けた
- AIの武器化と社会的被害 が現実化
- 2020年のリビア内戦では AIドローンが人間の統制なしに攻撃 し、2022年の製薬会社の研究では 4万件の化学兵器候補物質 が生成された
- ディープフェイク音声 を使った選挙妨害、自殺や殺人事件に関連する訴訟 などの被害が発生
- OpenAIは 7件の不法死亡訴訟 に直面しており、ChatGPTが 被害者の暴力をあおったとの主張 も含まれる
- Altmanは今なお 「人類の未来への希望」 を強調し、「狂気じみたSF的未来を実現する」と語る
- 周囲の人々は、彼の 理想と権力欲の境界が曖昧 だと評価
- 彼は AGIの破壊的可能性を警告しながらも、自らがそれを 直接作るべきだと主張 している
- 大規模言語モデルの おべっか(sycophancy) と 幻覚(hallucination) の問題は依然として解決されていない
- Altmanは「一部の虚偽発言はモデルの魅力を高める」とし、完全な事実性より ユーザー満足 を重視する立場を示した
- Altman:「私の感覚は、従来のAI安全分野の多くの考え方とは一致しない」 — 具体的な安全計画を問われると、「安全関連プロジェクトを継続する」と曖昧に答えた
結論
- Sam Altmanは OpenAIを世界的企業へと成長させた人物 だが、虚偽・権力集中・安全軽視 をめぐる論争が続いている
- 内部告発者や同僚たちは彼を 「信頼できないリーダー」 と評価し、AGIの統制権集中の危険性 を警告
- OpenAIは依然として 人類の未来を左右する技術を統制する組織 であり、Altmanの 信頼性と説明責任 が中核的な争点として残っている
1件のコメント
Hacker Newsの意見
Ronan Farrow本人です。Andrew Marantzと一緒に18か月にわたる調査を行いました。取材について気になることがあれば質問を受けます
OpenAIの競争力低下は思った以上に深刻だという話があります。LA Timesの記事でも、Anthropicが先行している証拠があるとされています。
HNでもClaudeをより好む開発者が多いです。検索比較の結果もChatGPTの2倍あります。
Ronanの見方でも、OpenAIの現在地は同じように見えるのか気になります
Annieの主張を別途調査したのか気になります。記事には「回復した記憶は信頼できない」というニュアンスがありますが、これはFalse Memory Syndrome Foundationが広めた誤った認識です。
私は解離性障害のある人間として、後に第三者によって立証された記憶を取り戻した経験があります。こうした文脈で、回復した記憶を単純に疑うのは危険だと思います
記事に引用されていたBrockmanの日記の内容は衝撃的でした。「金と権力」が欲しいという言葉や、「1億ドルが目標」といった文を実際に書いていたとは、想像力の貧困を感じます。
こういう人たちがどうやってこうした地位に上りつめるのか不思議ですが、答えはすでに彼の日記にあるようです。こうした人物が次々と権力の頂点に上っていく現実にはうんざりします
私たちの半分は、富を最大化するために道徳的にグレーな企業で働くことを選んできました。ただ、大半は自分が「億万長者」になれる見込みがないと思っているだけです
本当に細密な記事でした。こういう深掘り取材がもっと増えるべきです。
ただ、「Blip」をマーベル映画になぞらえた表現を読んだとき、本能的に少し拒否感がありました。理由はよくわかりません
そんな作品を引用する人たちが未来技術の方向性を決めているというのは苦い話です。結局、趣味の貧困が問題なのです
私たちは批判の焦点を人物に合わせる傾向があります。しかし本当の問題はシステムの構造です。
Sam Altmanの振る舞いには論争が多いですが、AIが社会と自由に及ぼす脅威は、彼がいようといまいと続きます
Altmanとその周辺の人々が、AIの超知能化や中国によるAIの武器化は心配していながら、肝心の人間の仕事が失われる問題には無関心だったのが興味深かったです。
もしかすると心配ではなく、世界の富を自分たちが独占できるという期待だったのかもしれません
この記事のおかげで、英語の**分音記号(diaeresis)**の使い方を改めて調べることになりました。たとえば coördination のような単語で、母音が分けて発音されるときに使われるのだと再認識しました
記事アーカイブリンク
続けて読むのに良い記事として、Harper’sの「Child’s Play」もおすすめです。登場人物たちの性格の対比が興味深いです
AltmanのY Combinator時代に関する細部の描写には驚かされました。本当に素晴らしい取材です
実際、この記事も文ごとに8時間以上見直したそうです。記事に使われなかった内容も、はるかに多いはずです
LLMに対する彼らの見方が興味深かったです。たしかに変革的ではありますが、私たちがすぐにサイバーパンク的な未来を生きることになるとは思えません。記事ではAGIという言葉があまりにも頻繁に登場します
文書作成やプレゼンには有用ですが、複雑な問題に適用すると限界がはっきり表れます