30 ポイント 投稿者 xguru 2026-01-20 | 1件のコメント | WhatsAppで共有
  • 個人のハードウェア上で LLM を手軽に実行できるよう設計された グラフィカルUIツール
  • バックエンド管理、モデルのダウンロード、ハードウェアアクセラレーション設定などの複雑な工程を自動化
  • llama.cpp をフォークした KoboldCpp をベースに動作し、テキスト生成と画像生成の両方をサポート
  • Windows、macOS、Linux(特に Wayland を含む)でネイティブ実行をサポート
  • CPU専用システムでも動作し、CUDA, ROCm, Vulkan, CLBlast, Metal ベースのGPUアクセラレーションをサポート
  • 画像生成機能を内蔵 : Flux, Chroma, Qwen Image, Z-Image など主要なワークフロープリセットを提供
  • HuggingFace統合検索機能 により、アプリ内でモデル探索、モデルカードの確認、GGUFファイルの直接ダウンロード が可能
  • --cli オプションで ターミナルベース実行 が可能で、GUIなしでも同じバックエンドを動作させ、リソース使用を最小化
  • AGPL-3.0 ライセンス

1件のコメント

 
vigorous5537 2026-01-20

ollama と比べた利点は何でしょうか?