- Metaの元主任AIサイエンティスト ヤン・ルカン が共同創業したスタートアップ Advanced Machine Intelligence(AMI) が、10億ドル超の資金調達を完了
- AMIはワールドモデル(world model) を開発し、物理世界を理解して推論・計画・記憶機能を備えた新しい形のAIシステムの構築を目指す
- ルカンは大規模言語モデル(LLM) は人間レベルの知能に到達できないと批判し、物理世界に基づく学習こそが真の知能の核心だと主張
- 出資には Bezos Expeditions, Eric Schmidt, Mark Cuban などの主要人物が参加し、ルカンはMetaとの協業の可能性にも言及
- AMIはオープンソース技術開発を志向し、今後汎用ワールドモデルを構築して産業全般に適用する計画
AMIの設立と資金調達
- Advanced Machine Intelligence(AMI) はパリに本社を置くスタートアップで、ヤン・ルカンがMeta退社後に共同創業
- ルカンはMetaの Fundamental AI Research(FAIR) 研究所を率いていた人物で、2025年11月にMetaを離れた
- 今回の投資ラウンドで10億ドル超を確保し、企業価値は35億ドルと評価
- 主な投資家は Cathay Innovation, Greycroft, Hiro Capital, HV Capital, Bezos Expeditions など
- Mark Cuban, Eric Schmidt, Xavier Niel らも参加
- AMIはパリに加え、モントリオール、シンガポール、ニューヨーク にもオフィスを置き、グローバルに運営する予定
ルカンのAI哲学とLLM批判
- ルカンは人間の推論が言語よりも物理世界の経験に基づいていると強調
- 「LLMをスケールさせれば人間レベルの知能に到達できるという考えは、完全な幻想だ」と発言
- 彼はLLMのコード生成能力は認めつつも、それが人間レベルの知能にはつながらないと指摘
- ルカンはMeta社内で Joint-Embedding Predictive Architecture(JEPA) などのワールドモデル研究を進めていたが、
MetaがLLM中心の戦略に転換したことで独立を決断
- 「外部のほうが、より速く、より安く、より効率的に開発できる」と説明
AMIの技術目標と産業応用
- AMIは持続的な記憶、推論、計画能力を備えたAIシステムの開発を目標とする
- 初期の協業企業として Toyota, Samsung などが挙げられている
- 例として、航空機エンジンのワールドモデルを構築して効率と信頼性を改善する案を提示
- 長期的には汎用ワールドモデル(universal world model) を開発し、産業全般に適用する計画
共同創業陣の構成
- ルカン以外の共同創業者にはMeta出身者が多数含まれる
- Michael Rabbat(元リサーチサイエンスディレクター)、Laurent Solly(元欧州担当副社長)、Pascale Fung(元AI研究ディレクター)
- Alexandre LeBrun(元Nabla CEO)がAMIのCEO、Saining Xie(元Google DeepMind研究員)が最高科学責任者(CSO)として参加
オープンソースとAI統制をめぐる議論
- ルカンは、AIは特定企業に独占されるべきではないとして、オープンソース開発の方針を強調
- 最近の米国防総省によるAnthropicのブラックリスト掲載事件に言及し、AIの統制権をめぐる論争を指摘
- 彼は「AIの善悪の判断は個人ではなく民主的な手続きが決めるべきだ」と発言
- 過去に自身が開発に貢献した畳み込みニューラルネットワーク(CNN) が一部の国の監視システムで使われた事例に触れた
- AIの軍事利用については、かつて自律兵器禁止運動があったが、現在はウクライナでの自律ドローン活用など防衛目的へと発展していると説明
今後の計画
- AMIは最初のAIモデルをできるだけ早く公開する予定だが、当初は一般的な注目を期待していない
- 産業パートナーとの協業を通じて技術の適用範囲を広げ、長期的には汎用知能システムへ発展させることを目指す
- ルカンは「非常に野心的な計画だ」と笑みを浮かべて締めくくった
1件のコメント
Hacker Newsの意見
世界モデルにははるかに多くの自由度が存在する
LLMは本質的に静的なテキスト、つまり人間が世界を説明した言語データだけを学習しているため、実世界から学べない
そのため既存のアイデアを組み替えることはできても、真の創造的発見や発明はほとんど不可能だ
物理世界に基づく時空間的理解を学習するスタートアップが現れるなら、AGIへの本当のボトルネックを解決しようとする試みになるだろう
たとえ部分的な成功にとどまっても、現在のLLMが構造的に到達できない一般化と創造性を切り開けると思う
AGIのボトルネックは継続学習とバックプロパゲーション(backpropagation)にあると思う
人間の脳はバックプロパゲーション方式で学習しておらず、世界モデルも結局は私たちが見慣れたディープラーニング構造と大きくは変わらない
もし「世界から学ぶこと」がボトルネックなら、視覚-行動LLMをロボットやシミュレーション環境で強化学習ループに乗せればよい
すべての分野が物理世界と直接相互作用するわけではなく、すでに記録された歴史上の情報だけでも3D物理法則が適用される仮想シミュレーションは作れる
現在のLLMに足りないのは内的動機だ — 自分で考え、内省し、自己修正する能力だ
私自身も限られた記憶と注意力の中で創作しているが、AIと相談すると新しいアイデアが得られる
結局のところ人間の思考も学んだものの組み合わせにすぎず、AIもその延長線上にある
Yann LeCunの講演で聞いた話では、人間の赤ん坊は生後数年のあいだにLLMが学習するデータよりはるかに多い感覚データを経験する
これが言語ベースモデルの根本的な限界だと思う
LeCunは優れたセールスマンだが、失敗しても社会が彼を守るだろう
だから正直、尊敬の念はない
Tenenbaumはずっと以前から世界モデルを研究してきたが、ベンチャー界隈の人たちはこうした研究動向をよく知らない
だから投資対象として利用しやすい
去年8月にYannと昼食を共にしたとき、彼はMetaを離れるかどうか悩んでいると言っていた
私は彼に、他人の夢を支えるより自分の会社を作れと助言した
LLMが人間レベルの知能につながらないという彼の見解には同意するが、世界モデル戦略が正解かどうかは確信がない
結局スタートアップという形で出てくるのですね
個人的にはMilaのような研究所モデルのほうが適していると思っていた
それでもLeCunのキャリアと彼のツイート返信がそれ自体で物語っている
どうやって収益化するのか気になるが、成功を祈る
歴史的に意味のある研究は常に安定した大企業の研究所から出てきた — Bell Labs、IBM Research、Xerox PARC、MSRなど
Yannの影響力は疑いようがないが、Metaで莫大なリソースを持ちながらも目立った結果はなかった
世界を動画として理解するというアプローチは、すでにSeedance、Kling、Soraのような動画モデルがやっている
だから今回の試みがどれほど違うのかよく分からない
Metaは世界トップレベルの研究を数多く公開しており、オープンソースへの貢献も大きい
たとえば Beyond Language Modeling: An Exploration of Multimodal Pretraining の論文には、大規模実験に基づく洞察が含まれている
LeCunはプロダクト責任者ではなく研究リーダーとして素晴らしく役割を果たしたと思う
科学は競争市場ではない
そして「理解する」という言葉にはあまりに多くの意味が含まれている — 依然としてモデルは同じ誤りを繰り返す
時には情熱と自由のほうがより重要な原動力だ
彼はLLMがAGIへの道ではないと信じている
Yann LeCunが世界モデルのスタートアップAMI(Amilabs) を設立し、50億ドル超の企業価値を目指しているという
CEOにはLeBrun、CFOにはLeFunde、後処理責任者にはLeTuneを迎えたとのこと
TechCrunch記事 参照
今回は時期的にも適切だ
世界がLLMに集中しすぎているので、別の形のモデル研究も続けるべきだ
またヨーロッパが魅力的なAI研究環境を整えるきっかけになってほしい
LeCunの見解に同意するかどうかにかかわらず、今回の件はヨーロッパにとって良いことだと思う
米国と中国中心のAIエコシステムに対抗できる、資本力のある研究所が必要だ
Mistralは統合とコンサルティング中心へ転換したため、研究の最前線は空いている
LeCunのビジョン文書 A Path Towards Autonomous Machine Intelligence を見ると、彼の構想がよく分かる
JEPAはスタートアップでも十分に試せる構造であり、私たち3人のスタートアップでも医療時系列データを使ってJEPAを学習させた
ヨーロッパにもこうした独立した研究路線が必要だ
Straits Times記事
価格性能比が優れており、言語学習関連の作業には最高だ
もし彼の見方が正しければヨーロッパに大きな助けになるだろうが、間違っていれば単なるゼロサム投資になるだけだ
それでも動画データという未開拓の資源は多いので、良い結果を期待している
もしLLMで既に十分で、RSI(Recursive Self-Improvement) が間近だと考えるなら、今回の件はむしろ注意の分散にすぎない
FT記事リンク
正直、私はまだ世界モデルブームを理解できない
何十年も理論だけが存在してきたのに、LLMは実際に産業を変えてしまった
それでも人々はいまだに「LLMではない、本物は世界モデルだ」と言う
世界モデルは未来を予測し、LLMも画像トークンを予測するように学習できる
これは非常に強力な教師信号になり得る
LLMが学習中に形成する内部表現も、一種の世界モデルと見なせる
しかしLLMは複製技術に近く、真の学習や創造性には乏しい
一方、動物知能のアプローチは実世界の変化を予測し、フィードバックを通じて自ら修正する
つまり、現実に根ざした学習構造であり、ハルシネーションを減らし、目標達成のための行動を計画できる
この意味で「世界モデル」は単なる内部表現ではなく、世界と相互作用しながら学ぶ行動的モデルだ
米国中心のAI競争構図の中で、こうした新しいヨーロッパ発の挑戦は新鮮に感じられる
既存モデルは互いを複製しながら競争していただけで、真の革新は不足していた