11 ポイント 投稿者 longnightbebe 11 일 전 | 5件のコメント | WhatsAppで共有

ネットを見て回っていて、興味深いPDF文書を1つ見つけました。読んでみると、個人的にはかなり衝撃的な内容だったので共有します。

最近のAIシーンでみんなが推しているマルチエージェント方式を批判している内容のようで、AIに自律性を与えてはいけず、むしろ最初から「レンダリング部品」のように使うべきだと言っているようです。

文書タイトルも仮題になっていて、後半には何らかの実証データ(PoC)の話が出てくるのを見ると、どこかのディープテック企業や研究所が投資向けに書いた内部ホワイトペーパーが流出したのではないかという気がします。

正直、どういう内容なのか100%すべて理解できたわけではありませんが、今ビッグテックが進んでいる方向は間違っていると真正面からぶつけるトーンがかなり興味深く、投稿してみます。

正式な記事ではないので、私のGoogle Driveに上げてリンクを共有します.

5件のコメント

 
jeeeyul 11 일 전

大規模言語モデル(LLM)において『創造性』と『ハルシネーション(Hallucination)』が、結局は同じ確率論的な次トークン予測(Next-token prediction)の産物であることは、AIを扱うエンジニアにとって隠された事実でもない、あまりにも当然の基本前提なのに、このホワイトペーパーはまるでそれを重大な秘密の暴露であるかのように誇張しています。

マルチエージェントの『自律的修正』を、単に同一コンテキスト内での『同語反復(Homogeneous Iteration)』に限定して批判する論理には、やや物足りなさがあります。

実際の開発環境で知能エージェントをIDE内に統合し、高度なプロンプトエンジニアリングを行ってみると、モデルのこうした確率論的本質は『克服不可能な致命的欠陥』というより、システムを設計する際に定数として置くべき『基本条件』にすぎません。モデルがコンテキストを逸脱しうることをすでに前提とした上で、明確に分離されたコンテキストを与えたり、異なるスケールのコンテキストを通じて実質的な制御力を確保したりするのが、現場でのやり方です。

ところがこのホワイトペーパーは、誰もが知っているこの自明な事実を『カテゴリー錯誤』『確率的迂回』といった大仰な学術用語で包装し、不安感をあおっています。その目的は明白に見えます。LLMの自律性そのものを徹底的に切り下げてこそ、自分たちが提案する『人間が直接設計する決定論的制御網(SERAシステム)』の価値を最大化できるからです。

結局この記事は、技術的なバランス感覚を備えたホワイトペーパーというより、ハルシネーション現象のリスクを恐れるエンタープライズ環境の意思決定者をターゲットに、『制御不能なエージェントではなく、我々のハードコードされた決定論的パイプラインを導入せよ』と説得するために書かれた、偏ったセールスピッチ(Sales Pitch)に近いものです。

 
mammal 10 일 전

論証を並べ立てているだけで、主張に対する決定的な根拠や直接的な実験もない、栄養のない文章ですね。

Yann LeCunの「GPT-5000になっても、モデルはテーブルの上に物を置いてテーブルを押せば物も一緒に動くということを学習できないだろう」や、「自己回帰モデルは長いシーケンスになるほど誤りの蓄積によって必ず崩壊する」の退屈な延長線のような……

乱暴に言えば、白書の最後で言及した会社のバイラル目的の投稿ではないかと疑ってしまいます。

 
mammal 10 일 전

> このような崩壊の根底には、トランスフォーマーアーキテクチャの中核である「ソフトマックス正規化」が持つ数学的限界が存在する。アテンションメカニズムの下では、すべてのトークンの注意重みの総和は必ず1にならなければならないゼロサム分布に従う。したがって、入力シーケンスの長さNが幾何級数的に拡大するほど、特定の中核トークンに割り当てられる情報的重みは必然的に1/Nへと収束し、算術的に希薄化される。これは単なる演算効率の低下を超え、モデルが処理しなければならない「ノイズフロア(Noise Floor)」が急激に上昇することを意味する。

これはもう、ふざけてるとしか思えない…

 
yhpat1 11 일 전

単に、以前から続いてきたNeuro-Symbolicをめぐる議論ではないかと思います。かつては「決定論的」という言葉に、今よりも大きな意味が与えられていた時期がありました。しかし、確率モデルの性能が向上し、決定論的なレベルに近似できるほどになったことで、多くの論争の余地はなくなりました。結局、私たちが常に求めていたのは決定論的な何かではなく、「許容可能な」不確実性だったのです。その点では、少なくとも学界ではなく「業界」の視点からすれば、決定論にあまり大きな意味を持たせる必要はないのではないかと思います。少なくとも、現行の生成モデルの不確実性が頭打ちになった時点で統合が進んでも、まったく遅くはありませんから。

 
brainer 11 일 전

難しく書いてありますが、結局言いたいことは人間にも当てはまる内容ですよね。
愚かなAが書いた文章を愚かなAがもう一度見たからといって、より良い文章になるのかという問題ですよ。

もちろん少数のケースでは良くなる余地もあるし、全問題を当てずっぽうで解いて大学入学共通テストで満点を取る確率もありますが、ほとんどの場合は愚かなAのN回の平均レベルへ回帰するだけでしょう。

(Chapter 2には完全には同意できませんね。)

ただ、論文で言っているように what-ever Scaling Law は一時的な増加法則であって、永遠に続くものではないことをもう少し分かってほしいです。
OpenAI の論文をきちんと読んでいたら、こんなことを言うはずもないでしょうが。

実際、ああいう論文100本より、単に「できる」と主張する人がそうであることを証明すれば済む話でしょう。

「できる」という錬金術ばかりやっているから問題なんですよ。