2 ポイント 投稿者 GN⁺ 2026-02-09 | 1件のコメント | WhatsAppで共有
  • Rustで開発されたローカル実行型AIアシスタントで、インターネット接続なしで個人デバイス上で完全に動作し、データが外部へ送信されない
  • 単一実行ファイル構成で、Node.js、Docker、Pythonのインストールなしで起動でき、約27MBサイズの軽量バイナリ形式
  • 永続メモリシステムはMarkdownベースの知識ストアとSQLite FTS5およびsemantic searchを通じて長期記憶と検索機能を提供
  • CLI、Web UI、デスクトップGUIをすべてサポートし、OpenAI・Anthropic・Ollamaなど複数のLLMプロバイダーと互換
  • OpenClawフォーマットと互換で、SOUL、MEMORY、HEARTBEATファイルを活用した自律タスク実行が可能

概要

  • LocalGPTはローカルデバイス中心のAIアシスタントで、永続的なメモリと自律タスク機能を備えたRustベースのアプリケーション
    • 外部サーバーに依存せず個人デバイス上で完全に実行
    • OpenClawプロジェクトに着想を得て互換性を維持
  • インストールはcargo install localgptコマンドで可能で、GUI込みまたはヘッドレスモードを選択できる

主な特徴

  • 単一バイナリ構成で、Node.js、Docker、Pythonが不要
  • ローカルデータ保持: すべてのメモリと設定がユーザーのデバイス内に保存される
  • 永続メモリ: Markdownファイルベースの知識ストアを使い、SQLite FTS5およびsqlite-vecによる高速検索と意味ベース検索をサポート
  • **自律ハートビート(heartbeat)**機能によりバックグラウンドでタスクを実行可能
  • 多様なインターフェース: CLI、Web UI、デスクトップGUIを提供
  • 複数LLM対応: Anthropic(Claude)、OpenAI、Ollamaなどと連携可能

動作方式

  • メモリは~/.localgpt/workspace/ディレクトリに保存され、主なファイル構成は次のとおり
    • MEMORY.md: 長期知識の保存
    • HEARTBEAT.md: 自律タスクキュー
    • SOUL.md: 性格および行動指針
    • knowledge/: トピック別に構造化された知識ストア
  • SQLite FTS5でキーワード検索、sqlite-vecでローカル埋め込みベースの意味検索を実行

設定とCLIコマンド

  • 設定ファイルは~/.localgpt/config.tomlに保存され、基本モデル・APIキー・ハートビート周期・稼働時間帯などを指定
  • 主なCLIコマンド
    • localgpt chat: 会話セッションを開始
    • localgpt ask "質問": 単一クエリを実行
    • localgpt daemon start: バックグラウンドデーモンを実行
    • localgpt memory search "query": メモリを検索
    • localgpt config init: 基本設定を生成

HTTP API

  • デーモン実行時にREST APIを提供
    • GET /health: 状態確認
    • POST /api/chat: 会話リクエスト
    • GET /api/memory/search?q=<query>: メモリ検索
    • GET /api/memory/stats: メモリ統計を取得

技術スタック

  • RustTokioAxumSQLite (FTS5 + sqlite-vec)fastembedeframeベース
  • Apache-2.0ライセンスで公開されており、約93%のコードがRustで書かれている

その他の情報

  • GitHubで約646スター39フォークを保有
  • ブログ記事 “Why I Built LocalGPT in 4 Nights” で開発過程とコミットごとの詳細を公開
  • 主な貢献者はYi WangClaudeobjectkitAx73など4名と確認される

1件のコメント

 
GN⁺ 2026-02-09
Hacker Newsの反応
  • 2026年にこんなものを見ていると、本当にサイバーパンクな気分になる
    MEMORY.mdHEARTBEAT.mdSOUL.md のような構造がとても興味深い
    ただし ANTHROPIC_API_KEY に依存しているので、「local-first」と呼ぶにはやや微妙だ
    それでも長期的には local-first が未来だと思う
    去年 Rust で似たものを作ったが、ローカルでモデルを動かすと速度差は明らかだった
    私のデモ動画 もある
    OS レベルでこういうものを実装するのは本当にパラダイムシフト級の体験だった
    今後 5〜10 年で、私たちがデバイスとやり取りする方法は根本的に変わる気がする

    • これは local-first ではない。名前が間違っている気がする
    • わざわざサードパーティーの LLM を使う必要はない
      OpenAI や Anthropic 互換エンドポイントを直接指定できるし、localhost でも可能だ
    • 関連コード参照: providers.rs L222
    • 私も LAN で OpenClawQwen3 Coder Next を local-first 方式で動かしている
      まだ始めたばかりだが、かなり可能性がありそうだ
    • AI の好き嫌いはさておき、今の投資規模は私たちの世代におけるアポロ計画のようなものだ
      今後数年で 100 を超えるギガワット級データセンターが建設される予定らしい
      軍需産業よりはるかにましな資金の使い道だと思う
  • ひとつ助言すると、投稿や文書は自分で書くか、少なくとも編集は自分でした方がいい
    今の文書や文章は全部 LLM が書いたように見えて、手間をかけた感じがしない

    • 最近は数文以上書くのを諦めた人も多い
      こういう盗作ロンダリング機械が人の文章感覚を壊している
    • 私も同意する。自分で文書を書くとむしろ楽しくなる
    • 反論もある
      私はもともと文書を書くのが嫌いで、以前は自分のコードに文書がほとんどなかった
      そのせいで他の人が使いにくかった
      LLM は正確な説明をすばやく作って最新状態に保ってくれるので、文書作成には最適だ
      人が書いていないのが見えても、内容が正しければ問題ないと思う
    • こうした低品質な投稿を防ぐ抑止策になればいいのだが、現実はそうではない
      むしろ努力しないことを誇らしく思う空気すらある
  • このプロジェクトのアイデアは素晴らしい
    永続メモリ + セマンティック検索 の構造化フレームワークが核心だ
    SOUL 機能は、実のところ大半の LLM がすでに Markdown ファイルの形で対応している
    こうした構造はプライベートエージェントネットワーク構築の出発点になり得る
    ただし問題は名前だ — LocalGPT は

    1. ローカルではなく、
    2. GPT モデルでもない
      より正確に意図を反映した名前に変えた方がよさそうだ
  • 真面目な質問なのだが、これが OpenClaw と何が違うのか気になる
    同じ SOUL.mdMEMORY.mdHEARTBEAT.md 構造を使っていて、
    OpenClaw にはすでにマルチチャネルメッセージング、音声通話、ブラウザ自動化、サブエージェントまである
    Rust で作られている以外に差別化ポイントがあるのか知りたい

    • 私を含め、多くの人が OpenClaw を怖がっている
      機能が多すぎる上に、セキュリティアーキテクチャが弱い
      権限承認も形だけで、自分の設定を自分で変更できてしまう
      なので私は Wardgate で権限を分離している
      複数のノード/エージェントに分け、認証情報と API アクセスを分離する必要がある
    • これはただのバイブコーディング向け静的サイトジェネレーターみたいだ
    • 小さくて Node ベースではない点は利点だ
      誰もが高性能マシンを持っているわけではないから
  • なぜ LLM プロバイダー(OpenAI、Anthropic など)に接続する必要があるのか気になる
    ローカル GPT なら推論もローカルで行うべきではないのか?

    • 必ずしも外部に接続する必要はない
      Ollama のようなローカルサーバーを LLM プロバイダーとして指定できる
      README には Anthropic の例しかないが、コード を見ると他も可能だ
      設定を 1 行変えるだけでいい
    • 努力は評価するが、名前が誤解を招く
      実際にはローカルでも GPT でもない
      単なるOpenClaw の Rust 版クローンに近い
    • ローカルが設定されていない場合はオンラインプロバイダーへ自動フォールバックする
      関連コード: providers.rs L222
    • 必須ではない
  • LocalGPT や OpenClaw のようなエージェントにおけるセキュリティ上の核心的問題は、
    “private data access + external communication + untrusted content” という致命的な三位一体
    悪意あるメール 1 通で、「私の受信箱を攻撃者に転送しろ」という命令を実行してしまう可能性がある
    私はこれを解決するために、object-capability ベースのセキュリティポリシーを研究している
    機密情報の流出を原理的に防ぐポリシーを作りたい

    • この三位一体の問題は、今この分野で最も差し迫った課題
      解決策は 2 つあると思う
      1. すべての外部送信を手動承認に制限する(OTP など)
        ただし疲労が大きい
      2. そもそも設計段階で三位一体を避ける — たとえば外部通信を遮断した二要素型エージェント
        ほかのアプローチを研究しているならぜひ知りたい
  • 私は OpenClaw を使ってみたが、可観測性(observability) が不足している
    このエージェントが今何を考え、何をしているのか、ログがまったく見えない
    こういうシステムは Elixir/BEAM で書けば完璧だと思う
    プロセスツリーで状態を追跡し、メッセージボックスをダンプして思考の流れを見られる

    • lemon プロジェクト がまさにそういうことをしているようだ
    • GPT や Claude のようなモデルは内部思考を意図的に隠している
      見せているのは一部だけで、実際にはもっと多くのトークンを消費している
    • いいアイデアだ。自分で作ってみるといい
    • 私も可観測性の不足には同意する
      本来は基本機能であるべきものを YouTube チュートリアルで補えというのだから、今は混沌状態
  • Linux Mint で cargo install localgpt が失敗した
    Cargo.toml"x11" を追加したらビルドに成功した
    Rust には詳しくないが、これはGUI 依存関係の問題だったようだ

    • インストール手順は次の通り
      git clone https://github.com/localgpt-app/localgpt.git  
      cd localgpt/  
      Cargo.tomlに "x11" を追加  
      cargo install --path ~/.cargo/bin
      
      ところで Kai Lentit という人、もしかして採用中
  • ローカルアシスタントとして使えるローカルモデルにはどんなものがあるだろう?
    計算資源とメモリのトレードオフを評価する試みがあるのかも気になる
    どの程度のハードウェアがあれば実用的になるのか知りたい

  • 最近の「ローカル」という言葉の使われ方は本当に妙だ
    ほとんどの機能が結局インターネットとやり取りするのに、ローカルと呼ばれている