- Rustで開発されたローカル実行型AIアシスタントで、インターネット接続なしで個人デバイス上で完全に動作し、データが外部へ送信されない
- 単一実行ファイル構成で、Node.js、Docker、Pythonのインストールなしで起動でき、約27MBサイズの軽量バイナリ形式
- 永続メモリシステムはMarkdownベースの知識ストアとSQLite FTS5およびsemantic searchを通じて長期記憶と検索機能を提供
- CLI、Web UI、デスクトップGUIをすべてサポートし、OpenAI・Anthropic・Ollamaなど複数のLLMプロバイダーと互換
- OpenClawフォーマットと互換で、SOUL、MEMORY、HEARTBEATファイルを活用した自律タスク実行が可能
概要
- LocalGPTはローカルデバイス中心のAIアシスタントで、永続的なメモリと自律タスク機能を備えたRustベースのアプリケーション
- 外部サーバーに依存せず個人デバイス上で完全に実行
- OpenClawプロジェクトに着想を得て互換性を維持
- インストールは
cargo install localgptコマンドで可能で、GUI込みまたはヘッドレスモードを選択できる
主な特徴
- 単一バイナリ構成で、Node.js、Docker、Pythonが不要
- ローカルデータ保持: すべてのメモリと設定がユーザーのデバイス内に保存される
- 永続メモリ: Markdownファイルベースの知識ストアを使い、SQLite FTS5およびsqlite-vecによる高速検索と意味ベース検索をサポート
- **自律ハートビート(heartbeat)**機能によりバックグラウンドでタスクを実行可能
- 多様なインターフェース: CLI、Web UI、デスクトップGUIを提供
- 複数LLM対応: Anthropic(Claude)、OpenAI、Ollamaなどと連携可能
動作方式
- メモリは
~/.localgpt/workspace/ディレクトリに保存され、主なファイル構成は次のとおり
MEMORY.md: 長期知識の保存
HEARTBEAT.md: 自律タスクキュー
SOUL.md: 性格および行動指針
knowledge/: トピック別に構造化された知識ストア
- SQLite FTS5でキーワード検索、sqlite-vecでローカル埋め込みベースの意味検索を実行
設定とCLIコマンド
- 設定ファイルは
~/.localgpt/config.tomlに保存され、基本モデル・APIキー・ハートビート周期・稼働時間帯などを指定
- 主なCLIコマンド
localgpt chat: 会話セッションを開始
localgpt ask "質問": 単一クエリを実行
localgpt daemon start: バックグラウンドデーモンを実行
localgpt memory search "query": メモリを検索
localgpt config init: 基本設定を生成
HTTP API
- デーモン実行時にREST APIを提供
GET /health: 状態確認
POST /api/chat: 会話リクエスト
GET /api/memory/search?q=<query>: メモリ検索
GET /api/memory/stats: メモリ統計を取得
技術スタック
- Rust、Tokio、Axum、SQLite (FTS5 + sqlite-vec)、fastembed、eframeベース
- Apache-2.0ライセンスで公開されており、約93%のコードがRustで書かれている
その他の情報
- GitHubで約646スターと39フォークを保有
- ブログ記事 “Why I Built LocalGPT in 4 Nights” で開発過程とコミットごとの詳細を公開
- 主な貢献者はYi Wang、Claude、objectkit、Ax73など4名と確認される
1件のコメント
Hacker Newsの反応
2026年にこんなものを見ていると、本当にサイバーパンクな気分になる
MEMORY.md、HEARTBEAT.md、SOUL.mdのような構造がとても興味深いただし
ANTHROPIC_API_KEYに依存しているので、「local-first」と呼ぶにはやや微妙だそれでも長期的には local-first が未来だと思う
去年 Rust で似たものを作ったが、ローカルでモデルを動かすと速度差は明らかだった
私のデモ動画 もある
OS レベルでこういうものを実装するのは本当にパラダイムシフト級の体験だった
今後 5〜10 年で、私たちがデバイスとやり取りする方法は根本的に変わる気がする
OpenAI や Anthropic 互換エンドポイントを直接指定できるし、localhost でも可能だ
まだ始めたばかりだが、かなり可能性がありそうだ
今後数年で 100 を超えるギガワット級データセンターが建設される予定らしい
軍需産業よりはるかにましな資金の使い道だと思う
ひとつ助言すると、投稿や文書は自分で書くか、少なくとも編集は自分でした方がいい
今の文書や文章は全部 LLM が書いたように見えて、手間をかけた感じがしない
こういう盗作ロンダリング機械が人の文章感覚を壊している
私はもともと文書を書くのが嫌いで、以前は自分のコードに文書がほとんどなかった
そのせいで他の人が使いにくかった
LLM は正確な説明をすばやく作って最新状態に保ってくれるので、文書作成には最適だ
人が書いていないのが見えても、内容が正しければ問題ないと思う
むしろ努力しないことを誇らしく思う空気すらある
このプロジェクトのアイデアは素晴らしい
永続メモリ + セマンティック検索 の構造化フレームワークが核心だ
SOUL 機能は、実のところ大半の LLM がすでに Markdown ファイルの形で対応している
こうした構造はプライベートエージェントネットワーク構築の出発点になり得る
ただし問題は名前だ — LocalGPT は
より正確に意図を反映した名前に変えた方がよさそうだ
真面目な質問なのだが、これが OpenClaw と何が違うのか気になる
同じ
SOUL.md、MEMORY.md、HEARTBEAT.md構造を使っていて、OpenClaw にはすでにマルチチャネルメッセージング、音声通話、ブラウザ自動化、サブエージェントまである
Rust で作られている以外に差別化ポイントがあるのか知りたい
機能が多すぎる上に、セキュリティアーキテクチャが弱い
権限承認も形だけで、自分の設定を自分で変更できてしまう
なので私は Wardgate で権限を分離している
複数のノード/エージェントに分け、認証情報と API アクセスを分離する必要がある
誰もが高性能マシンを持っているわけではないから
なぜ LLM プロバイダー(OpenAI、Anthropic など)に接続する必要があるのか気になる
ローカル GPT なら推論もローカルで行うべきではないのか?
Ollama のようなローカルサーバーを LLM プロバイダーとして指定できる
README には Anthropic の例しかないが、コード を見ると他も可能だ
設定を 1 行変えるだけでいい
実際にはローカルでも GPT でもない
単なるOpenClaw の Rust 版クローンに近い
関連コード: providers.rs L222
LocalGPT や OpenClaw のようなエージェントにおけるセキュリティ上の核心的問題は、
“private data access + external communication + untrusted content” という致命的な三位一体だ
悪意あるメール 1 通で、「私の受信箱を攻撃者に転送しろ」という命令を実行してしまう可能性がある
私はこれを解決するために、object-capability ベースのセキュリティポリシーを研究している
機密情報の流出を原理的に防ぐポリシーを作りたい
解決策は 2 つあると思う
ただし疲労が大きい
ほかのアプローチを研究しているならぜひ知りたい
私は OpenClaw を使ってみたが、可観測性(observability) が不足している
このエージェントが今何を考え、何をしているのか、ログがまったく見えない
こういうシステムは Elixir/BEAM で書けば完璧だと思う
プロセスツリーで状態を追跡し、メッセージボックスをダンプして思考の流れを見られる
見せているのは一部だけで、実際にはもっと多くのトークンを消費している
本来は基本機能であるべきものを YouTube チュートリアルで補えというのだから、今は混沌状態だ
Linux Mint で
cargo install localgptが失敗したCargo.tomlに"x11"を追加したらビルドに成功したRust には詳しくないが、これはGUI 依存関係の問題だったようだ
ローカルアシスタントとして使えるローカルモデルにはどんなものがあるだろう?
計算資源とメモリのトレードオフを評価する試みがあるのかも気になる
どの程度のハードウェアがあれば実用的になるのか知りたい
最近の「ローカル」という言葉の使われ方は本当に妙だ
ほとんどの機能が結局インターネットとやり取りするのに、ローカルと呼ばれている