- Qwen3.5-397B-A17B は言語・ビジョン統合モデルで、推論・コーディング・エージェント・マルチモーダル理解全般で優れた性能を示す
- GDNベースの線形アテンションと疎なMoE を組み合わせたハイブリッド構造により、3,970億パラメータのうち170億のみを活性化し、推論効率とコスト削減を同時に実現
- 言語・方言サポートを119から201へ拡大し、グローバルユーザーのアクセス性と多言語処理性能を強化
- Alibaba Cloud Model Studio で提供される Qwen3.5-Plus は、100万トークンのコンテキストウィンドウと適応的なツール利用機能を標準サポート
- 強化学習環境の拡張と効率的なインフラ設計により、大規模マルチモーダルエージェントの学習・推論の安定性と拡張性を確保
Qwen3.5 概要
- Qwen3.5 は ビジョン・言語統合モデル であり、推論・コーディング・エージェント・マルチモーダル理解など多様なベンチマークで卓越した性能を示す
- モデル名は Qwen3.5-397B-A17B、総計3,970億パラメータのうち170億のみを活性化
- Gated Delta Networksベースの線形アテンション と 疎なMixture-of-Experts 構造の組み合わせにより、速度とコストを最適化
- 言語サポートを 119から201へ拡大 し、多言語でのアクセス性を向上
- Qwen3.5-Plus は Alibaba Cloud Model Studio で提供され、
- 1Mコンテキストウィンドウ、公式組み込みツール、適応的なツール利用機能を含む
性能評価
- Qwen3.5 は GPT5.2、Claude 4.5 Opus、Gemini-3 Pro などの最新モデルと比較しても
- 言語・推論・コーディング・エージェント・マルチモーダルの全領域で競争力のあるスコアを記録
- 言語評価では MMLU-Pro 94.9、SuperGPQA 70.4、IFBench 76.5 などで上位クラスの性能
- ビジョン・言語評価では MathVision 88.6、AI2D_TEST 93.9、OCRBench 93.1 などで高得点
- マルチモーダル理解力と STEM問題解決能力 で Qwen3-VL 比で向上した結果
- 強化学習環境の拡張 により汎用エージェント性能が向上し、BFCL-V4・VITA-Bench などで平均順位が改善
事前学習(Pretraining)
- Power: Qwen3 と比べて大規模な視覚・テキストトークン学習を実施し、多言語・STEM・推論データを強化
- Qwen3.5-397B-A17B は 1Tパラメータ級モデル(Qwen3-Max-Base)と同等の性能を達成
- Efficiency: Qwen3-Next アーキテクチャをベースに MoEの疎化・Gated DeltaNet・マルチトークン予測 を適用
- 32k/256k コンテキストで Qwen3-Max 比 8.6倍/19倍のデコードスループット
- Versatility: テキスト・ビジョンの早期融合により 自然なマルチモーダル処理 を実現し、
- 語彙数を25万(従来15万)に拡大してエンコーディング・デコーディング効率を10〜60%向上
インフラおよび学習フレームワーク
- ビジョン・言語並列戦略を分離した異種インフラ により、効率的なマルチモーダル学習を支援
- 疎な活性化を活用し、テキスト・画像・動画の混合データでも 100%に近い処理効率 を達成
- FP8パイプライン により、活性化・MoEルーティング・GEMM演算の精度を最適化
- 非同期強化学習フレームワーク を構築し、テキスト・マルチモーダル・マルチターンモデルの学習を支援
- FP8エンドツーエンド学習、speculative decoding、multi-turn rollout locking などにより
3〜5倍の処理速度向上 と 安定した拡張性の確保 を実現
活用および統合
- Qwen Chat で Auto・Thinking・Fast モードを提供
- Auto: ツールの自動利用と適応的な思考
- Thinking: 深い推論
- Fast: 即時応答
- ModelStudio API を通じて reasoning、web search、Code Interpreter 機能を有効化可能
enable_thinking、enable_search パラメータで制御
- Qwen Code、OpenClaw などと統合し、自然言語ベースのコーディングとマルチモーダル創作を支援
デモおよび応用
- Web開発: 自然言語コマンドでWebページ・UIコードを生成
- Visual Agent: スマートフォン・PC上で自然言語ベースの自動操作を実行
- Visual Coding: 100万トークン入力で 最大2時間の映像処理 が可能、
- Spatial Intelligence: オブジェクト数カウント・位置関係・空間記述の精度が向上
- Visual Reasoning: 科学的問題解決および視覚的論理推論で Qwen3-VL 比で向上
要約と今後の方向性
- Qwen3.5 は 効率的なハイブリッド構造とネイティブなマルチモーダル推論 を基盤に
汎用デジタルエージェント 構築の土台を整備
- 今後の目標は モデル拡張からシステム統合への転換
- 継続的メモリ、実世界インターフェース、自己改善、経済的意思決定機能を備えた 自律的かつ持続型のエージェントシステム の開発
1件のコメント
Hacker Newsのコメント
今日のLLM難問で「drive the car to the wash」が選ばれたという話が興味深い
LLMはあらゆるコーパスを食い尽くしてしまうので、改善が本当の学習なのか、それとも単に「付箋メモ」を貼っただけなのかを見分けるのが難しい
自然言語で表現されていても、LLMには「暗号化された」問題のように見える形にする方法が必要
たとえば、簡単なLUAプログラム生成器がランダムなコードを作り、それを英語に翻訳してLLMに結果を予測させたうえで、実際の実行結果と比較する形でテストできそう
こうしたアプローチは一種の情報戦シナリオ**のように感じられる
興味のある人向けにMXFP4 GGUFsをHugging Faceに上げてあり、実行ガイドはunsloth.aiのドキュメントにまとまっている
Pelicanは悪くないが、良い自転車ではない — 関連例参照
Qwen 3.5が80〜110Bのサイズで出るなら、128GBデバイスにちょうど収まりそう。Qwen3-Nextは80Bだがビジョンエンコーダがない
フラッグシップモデルだけ公開されていて、小さいdistill版がないのが惜しい。以前のQwenはさまざまなサイズで出ていてよかった
去年の旧正月には、Sonnet 4.5級のモデルがローカルで高速に動くなんて想像もしていなかったが、いまでは2026 M5 Max MacBook Proで可能になるかもしれない
Qwenは非常に強力なオープンモデルで、特にビジュアルシリーズが印象的
AIレポートでFennec(Sonnet 5)が2月4日にリリースされると言及されていたが、実際にはうわさと**AIニュースツールのハルシネーション(hallucination)**が混ざった結果だった。興味深い事例だった
Qwenブログが読み込まれない問題がある。広告ブロッカーを切っても、まだプレースホルダーしか表示されない
彼らが言及していた15,000個のRL環境が具体的に何なのか気になる。数百個くらいなら理解できるが、それ以上は想像がつかない
最近は誰もがベンチマークスコアばかりに注目しているが、本当に重要なのは、モデルがマルチステップのツール利用中に文脈を維持できるかどうか
ほとんどのオープンモデルは、いまだにこの点で崩れてしまう