17 ポイント 投稿者 xguru 12 일 전 | まだコメントはありません。 | WhatsAppで共有
  • Google の Gemma 4 モデルWebGPU ベースで完全にオンデバイス実行し、ブラウザ内に常駐する個人用 AI アシスタントとして活用
  • API キー・クラウド・外部データ送信なし - すべての推論はローカルで処理され、データがデバイスの外に出ない
  • 閲覧中のページの読み取り、ボタンのクリック、フォーム入力、JavaScript 実行、サイトに対する質疑応答を行うエージェント型動作をサポート
  • Gemma 4 E2B(~500MB) / E4B(~1.5GB) の 2 モデルから選択可能で、初回実行後はキャッシュされて再利用
  • q4f16 量子化128K コンテキストをサポート (onnx-community/gemma-4-E2B-it-ONNX, onnx-community/gemma-4-E4B-it-ONNX)
  • 6 種類の内蔵ツールを提供
    • read_page_content: ページのテキスト/HTML、または CSS selector 基準で読み取り
    • take_screenshot: 表示中のページを PNG としてキャプチャ
    • click_element / type_text / scroll_page: CSS selector ベースの DOM 操作
    • run_javascript: ページコンテキストで DOM 全体にアクセス可能な JS を実行
  • Offscreen Document + Service Worker + Content Script の 3 層構造
    • Offscreen document が @huggingface/transformers + WebGPU でモデルをホスティングし、エージェントループを実行
    • Service worker はメッセージルーティングとスクリーンショット・JS 実行を担当
    • Content script は gem アイコンと shadow DOM チャットオーバーレイを注入
  • 設定で モデル切り替えThinking トグルツール呼び出しループ上限会話履歴の初期化サイト別の無効化をサポート
  • agent/ ディレクトリは 依存関係ゼロで、ModelBackendToolExecutor インターフェースを基盤に独立したライブラリ化が可能
  • WebGPU 対応 Chrome が必要 / Apache-2.0 ライセンス / TypeScript ベースで実装

まだコメントはありません。

まだコメントはありません。