40 ポイント 投稿者 xguru 14 일 전 | 8件のコメント | WhatsAppで共有
  • Gemma 4 26B ITをベースに、Appleシリコン向けにMLX最適化と4ビット量子化を施したテキスト専用モデルで、サイズは約13GB
  • オリジナルより賢く同一マシン上でより高速で、コード・ツール使用・韓国語で安定した無検閲モデル
  • テキスト専用フラッグシップとして、マルチモーダルではなく高速なテキスト処理にフォーカス
  • クイックベンチ95.8点(オリジナル 91.4)へ改善、生成速度は8.7%高速化(46.2 tok/s)し、体感上も応答待ち時間がはっきり短縮
  • **無検閲(uncensored)**という特性を中核属性として維持しつつ、コード、ツール使用、韓国語プロンプトで安定した出力を実現
    • コード生成スコアは98.6(+6.3)で、ローカルでPython関数の作成・リファクタリングをさせる際、オリジナルよりはるかに正確な結果を示す
    • 韓国語プロンプトのスコア 95.0(+4.3)で、韓国語で質問しても崩れずそのまま使える
    • 韓国語およびエージェントスタイルのプロンプト処理性能はオリジナルより優秀
    • 無検閲モデルのためコンテンツフィルターに阻まれる回答はゼロで、それでいて出力が不安定になったり崩れたりしない
  • ブラウザ自動化・ツール呼び出し・計画立案など、ローカルエージェントのワークロード/パイプラインにそのまま投入可能
  • 実行方法:
    • mlx_lm.server --model Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2 --port 8080
    • OpenAI互換サービングを自動サポートし、追加のテンプレート設定は不要(むしろ --chat-template にパスを入れると応答が壊れる)
  • MLX 4-bit、BF16・U32テンソル、Safetensorsフォーマット

8件のコメント

 
kohs100 12 일 전

Hugging Faceに上がっている31b Hereticを使っていたんですが、これも試してみないとですね

 
jjangdww 13 일 전

私も一度試してみないとですね
良い情報ありがとうございます。

 
asdfg 13 일 전

これ、元のgemma4とはライセンスが違いますね

 
fanotify 13 일 전

そうですね、Apache 2.0ではないですね

 
caniel 12 일 전

ライセンスタブには Gemma 4 へのリンクが張られていますが、どこで確認できますか?

 
adieuxmonth 14 일 전

すごい…

 
sea715 14 일 전

へえ、国内コミュニティで作られたモデルだなんて面白いですね