Gerbil - ローカルLLM実行向けデスクトップアプリ
(github.com/lone-cloud)- 個人のハードウェア上で LLM を手軽に実行できるよう設計された グラフィカルUIツール
- バックエンド管理、モデルのダウンロード、ハードウェアアクセラレーション設定などの複雑な工程を自動化
- llama.cpp をフォークした KoboldCpp をベースに動作し、テキスト生成と画像生成の両方をサポート
- Windows、macOS、Linux(特に Wayland を含む)でネイティブ実行をサポート
- CPU専用システムでも動作し、CUDA, ROCm, Vulkan, CLBlast, Metal ベースのGPUアクセラレーションをサポート
- 画像生成機能を内蔵 : Flux, Chroma, Qwen Image, Z-Image など主要なワークフロープリセットを提供
- HuggingFace統合検索機能 により、アプリ内でモデル探索、モデルカードの確認、GGUFファイルの直接ダウンロード が可能
--cliオプションで ターミナルベース実行 が可能で、GUIなしでも同じバックエンドを動作させ、リソース使用を最小化- AGPL-3.0 ライセンス
1件のコメント
ollamaと比べた利点は何でしょうか?