SuperGemma4 - Google Gemma 4 26Bの無検閲・高速化・量子化モデル
(huggingface.co)- Gemma 4 26B ITをベースに、Appleシリコン向けにMLX最適化と4ビット量子化を施したテキスト専用モデルで、サイズは約13GB
- オリジナルより賢く、同一マシン上でより高速で、コード・ツール使用・韓国語で安定した無検閲モデル
- テキスト専用フラッグシップとして、マルチモーダルではなく高速なテキスト処理にフォーカス
- クイックベンチ95.8点(オリジナル 91.4)へ改善、生成速度は8.7%高速化(46.2 tok/s)し、体感上も応答待ち時間がはっきり短縮
- **無検閲(uncensored)**という特性を中核属性として維持しつつ、コード、ツール使用、韓国語プロンプトで安定した出力を実現
- コード生成スコアは98.6(+6.3)で、ローカルでPython関数の作成・リファクタリングをさせる際、オリジナルよりはるかに正確な結果を示す
- 韓国語プロンプトのスコア 95.0(+4.3)で、韓国語で質問しても崩れずそのまま使える
- 韓国語およびエージェントスタイルのプロンプト処理性能はオリジナルより優秀
- 無検閲モデルのためコンテンツフィルターに阻まれる回答はゼロで、それでいて出力が不安定になったり崩れたりしない
- ブラウザ自動化・ツール呼び出し・計画立案など、ローカルエージェントのワークロード/パイプラインにそのまま投入可能
- 実行方法:
mlx_lm.server --model Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2 --port 8080- OpenAI互換サービングを自動サポートし、追加のテンプレート設定は不要(むしろ
--chat-templateにパスを入れると応答が壊れる)
- MLX 4-bit、BF16・U32テンソル、Safetensorsフォーマット
8件のコメント
Hugging Faceに上がっている31b Hereticを使っていたんですが、これも試してみないとですね
私も一度試してみないとですね
良い情報ありがとうございます。
これ、元のgemma4とはライセンスが違いますね
そうですね、Apache 2.0ではないですね
ライセンスタブには Gemma 4 へのリンクが張られていますが、どこで確認できますか?
すごい…
Ollama にもあります
https://ollama.com/0xIbra/supergemma4-26b-uncensored-gguf-v2
もう少し大きい 31b モデルもあります
https://huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-mlx-4bit
https://huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-GGUF
へえ、国内コミュニティで作られたモデルだなんて面白いですね