9 ポイント 投稿者 GN⁺ 2025-12-08 | 1件のコメント | WhatsAppで共有
  • TitansアーキテクチャとMIRASフレームワークは、AIモデルが実行中にもコアメモリを更新し、膨大な文脈を高速に処理できるよう設計されている
  • TitansはRNNの速度とTransformerの精度を組み合わせ、入力中に『驚き(surprise)』が大きい情報を長期記憶に選択的に保存する
  • MIRASは、さまざまなシーケンスモデルを統合的に解釈する理論的な設計図として、メモリ構造・バイアス・忘却・最適化プロセスを体系化する
  • 実験結果、TitansとMIRASの派生モデル(YAAD、MONETA、MEMORA)は、Transformer++Mamba-2などの最新モデルより、長い文脈処理と効率性で優れた性能を示した
  • 本研究は、RNNの効率性とTransformerの表現力を融合した新世代の長期文脈AIモデルへの移行を示している

TitansとMIRASの概要

  • TitansアーキテクチャとMIRASフレームワークは、AIが実行中にリアルタイムでメモリを更新し、大規模な文脈を処理するよう設計されている
    • 既存Transformerの注意(アテンション)機構は、シーケンス長に応じて計算コストが急増する
    • TitansとMIRASはこの制約を克服し、長期文脈理解とリアルタイム適応を可能にする
  • Titansは具体的なモデル構造、MIRASはこれを一般化した理論的ブループリントとして機能する
    • 両システムは**テスト時の記憶(test-time memorization)**の概念を発展させ、再学習なしで実行時に新しい情報を統合する

Titans: リアルタイム文脈学習

  • Titansは**短期記憶(注意機構)長期記憶(ニューラルネットワークベースのモジュール)**を分離し、人間の記憶構造を模倣する
    • 長期記憶モジュールは**多層パーセプトロン(MLP)**形式で、固定ベクトルの代わりに深層ニューラルネットワークを用いてより豊かな情報要約が可能
  • 中核コンセプトは**『驚き指標(surprise metric)』**
    • 入力が既存の記憶と大きく異なるほど、驚きが高いものとして判定され、長期記憶に保存される
    • 例:予期された単語(『cat』)は低い驚き、予想外の入力(『banana peel』)は高い驚きとして処理される
  • Titansは**モメンタム(momentum)忘却(weight decay)**のメカニズムを組み合わせる
    • モメンタムは最近の文脈の連続性を反映し、関連情報も一緒に保存
    • 忘却は不要情報を除去し、メモリ容量を効率的に維持する

MIRAS: シーケンスモデルの統合的観点

  • MIRASは、すべてのシーケンスモデルを**連想記憶(associative memory)**システムとして解釈する
    • 多様なモデルは、結局『新しい情報と既存の記憶を効率的に統合する』という同一の問題を解決すると定義する
  • MIRASは4つの設計要素でモデルを定義する
    • メモリ構造:情報保存形式(ベクトル、行列、MLPなど)
    • 注意バイアス:モデルがどの情報を優先するかを決定する
    • 保持ゲート(retention gate):忘却を調整する正則化方式
    • メモリアルゴリズム:メモリ更新の最適化方法
  • 既存モデルが平均二乗誤差(MSE)内積類似度に依存する限界を超え、**非ユークリッド(non-Euclidean)**目的関数と正則化を探索する

MIRASベースのモデル

  • YAAD:Huber損失を使い、入力誤差や外れ値に対する感度を下げた構造
  • MONETA:一般化ノルム(generalized norms)を適用し、安定した長期記憶維持を実現
  • MEMORA:メモリを確率マップのように制約し、バランスの取れた情報統合を保証
  • いずれのモデルも注意(アテンション)なしでも強力な長期記憶性能を達成

実験結果と性能

  • TitansとMIRASの派生モデルは、Transformer++Mamba-2Gated DeltaNetなどの最新アーキテクチャと比較評価される
    • **言語モデリング(C4、WikiText)およびゼロショット推論(HellaSwag、PIQA)**で、より高い精度と低いperplexityを達成
    • ゲノム(DNA)モデリング時系列予測でも汎化性能が実証された
  • **記憶深度(Depth)**が性能に決定的な影響を与える
    • 同じサイズのメモリでも、より深い構造ほど低いperplexityと優れたスケーラビリティを確保
  • 効率性の面で、Titansは並列学習と線形推論速度を維持し、既存モデルより高速な処理を可能にする
  • BABILongベンチマークでは、GPT-4より少ないパラメータ数で長文脈推論に優れた性能を示した
    • 最大200万トークン以上の文脈ウィンドウを効果的に処理

結論

  • TitansとMIRASは固定サイズのリカレント状態の限界を超え、データ入力中にリアルタイムで学習する新しいメモリ構造を提示している
  • MIRASはオンライン最適化・連想記憶・アーキテクチャ設計を統合する強力な理論枠組みを提供する
  • 非ユークリッド的設計空間を通じて、RNNの効率性とTransformerの表現力を融合した長期文脈AIモデル時代を開く基盤を築く

1件のコメント

 
GN⁺ 2025-12-08
Hacker Newsの意見
  • Titans: Learning to Memorize at Test Time 論文を紹介している
    原文はarXivリンクにある

    • GoogleがこのレベルでAI研究を公開しているが、他にそんな企業があるだろうかと疑問を呈している
      関連論文は1本目2本目のリンクで見られる。Googleはこのような透明性によって大きな信頼を得るに値すると思う
      • DeepSeekのような中国企業も活発に研究を公開しており、実際にオープンモデルを通じて検証している
        米国の大手研究所の論文は実用性能とかけ離れていることが多い。DeepSeekの例としてこの論文この論文に言及している
      • 論文公開は良いが、11か月経った今でもTitansアーキテクチャのモデルコードや重みはダウンロードできない
        MetaのLlama、Qwen、DeepSeekの方がはるかに先を行っている。現時点で利用可能なのは非公式実装だけだ
      • Bytedanceも非常に積極的に論文を出している
        最近印象的だったのはlumineプロジェクトで、論文リンク公式研究ページを共有している
      • Metaもまた研究を公開的に共有しており、最近は中国企業も同様の流れを見せている
      • エコシステムの80%は、すでに多くの企業や個人が公開した研究の上に築かれている
        Googleだけが特別により多くの功績を認められる理由はないと思う
  • 「ついに“Torment Nexus”を作ってしまった」という冗談を言っている
    Eclipse Phaseの世界観では、TITANが人類を破壊したAIネットワークだったことに触れている

  • Titansアーキテクチャの核心は、内部誤差信号(gradient) を通じて驚きと重要度を判断し、それに応じて長期記憶を更新することだ
    こうした構造なら、ランダムノイズ入力でモデルを攪乱できるのではないかと疑問を呈している

    • Titansの動作原理を単純化した解釈だ
      モデルは推論中にも学習し、訓練段階では「何を学習するか」を学習する
      無意味な入力には低いsurprise埋め込みが与えられ、学習にはほとんど反映されない
    • 実際、どんなAIでもランダム入力で反応を壊すことはできる
    • おそらく研究者たちもその問題は最初から認識していたはずで、表面的な説明だけでそうした誤解が生じたように思える
    • 人間の**感情システム(辺縁系)**のように、AIにも感情ベースの記憶メカニズムが必要だと思う
      人間は新しさよりも感情の強度によって記憶する。AIにも「何を望むか」という内的状態が必要だ
    • 人間が洗脳環境に閉じ込められると誤った情報を繰り返すようになるのと同じく、AIも入力ストリームが制限されると似た現象が起こり得る
      しかしコードベース開発のように文脈が維持される環境では、過去の設計判断や議論内容を記憶してより良い判断を下せるだろう
  • Titans論文を最初に読んだとき、「これは大きな進歩になる」と感じた
    AI業界の人間ではないが、長いあいだ人間型思考AIについて考えてきた
    LLMはその基準には遠く及ばなかったが、Titansはその方向へ一歩進んだように見える
    ブログにこうした考えを整理したいが、有名人ではないので関心を持ってもらえるか確信がない
    それでもTitansの実装が実際に出てくれば、皆が驚くことになりそうだ

    • ブログに継続的に投稿すれば、いずれ知られた存在になれる
    • 最近のAI記事は細部の技術にばかり没頭する傾向がある
      大きな絵を押さえる文章の方が、むしろ有用な洞察を与えられるかもしれない
    • この文章をHNで共有してフィードバックをもらってみてはどうかと提案している
  • Titansについてはすでにブログ記事を書いたことがある

    • ただし、まだ事前学習済みモデルは存在しない
      Googleの主張以外には検証済みの実装がなく、後続研究もほとんどない状態だ
  • Titansの構造がプロンプトインジェクションに対してより脆弱なのか、あるいは逆に強いのか気になっている
    リアルタイム学習が防御力を高めるかもしれない一方で、悪意ある入力がより深く残る可能性もある

  • Transformerのattentionメカニズムの説明を読みながら、CursorのようなIDEがどのようにメモリ管理しているのか気になった
    コードベースと文脈をますますうまく理解しているように見える

    • しかし、この論文はそのようなIDEのメモリ管理とは関係がない
      単にTransformerのコンテキストウィンドウの動作方式を説明している部分だ
  • TitansをLoRAのように継続的に適応させる構造として想像してよいのかと尋ねている
    もしそうなら、LoRAをメインモデルに再統合する段階があるのだろうか。それはまるで睡眠の過程のようだと表現している

    • LoRAは通常、外部から付け足す低次元アダプタなのでTitansとは異なる
      Titansにはそうした低次元構造はない
    • 理論上はLoRAを使うこともできるが、容量の限界のため完全な代替は難しい
      その代わり、入力チャンクを処理しながらMLP全体を学習する方式だ
  • 驚きベースの学習が、モデルをユーザープロンプトにより**精密に整列(alignment)**させる効果を持つのか気になっている