21 ポイント 投稿者 xguru 24 일 전 | 2件のコメント | WhatsAppで共有
  • オンデバイス生成AI の実行に特化した iOS/Android アプリで、インターネット接続なしの 完全オフライン・プライベート 環境で LLM を動作可能
  • Gemma 4 ファミリー の公式サポートを追加 - サーバー送信なしで高度な推論・論理・創作機能をテスト可能
  • Agent Skills: LLM との会話を超えて、能動的なアシスタントにする機能
    • Wikipedia のファクト検索、インタラクティブマップ、視覚要約カードなどのツールで LLM の能力を拡張
    • URL からモジュール式スキルを読み込み、GitHub Discussions のコミュニティスキル探索をサポート
  • Thinking Mode: AI チャット中にモデルの段階的な推論過程を視覚的に確認可能(現在は Gemma 4 ファミリーなど対応モデル限定)
  • Ask Image: カメラ・写真ギャラリーを活用したマルチモーダルな物体認識・視覚パズル・詳細説明生成
  • Audio Scribe: オンデバイスモデルで音声をリアルタイムに文字起こし・翻訳
  • Prompt Lab: temperaturetop-k などのパラメータを細かく調整しながらプロンプトをテストする専用ワークスペース
  • Mobile Actions : FunctionGemma 270m ファインチューニングモデルベースのオフライン端末制御自動化
  • Tiny Garden : 自然言語ミニゲーム
  • Model Management & Benchmark: オープンソースモデルのダウンロード、カスタムモデルの読み込み、ハードウェア別ベンチマークテストをサポート
  • LiteRT 軽量ランタイム + Hugging Face 連携でモデル探索・最適化を実行
  • Android 12+、iOS 17+ 対応 / Google PlayApp Store からインストール可能 / Google Play にアクセスできない環境では GitHub リリースから APK を直接インストール することも可能
  • ライセンス: Apache-2.0 / 開発言語: Kotlin

2件のコメント

 
lastorder 23 일 전

https://github.com/google-ai-edge/gallery/issues/437

Exynosとの互換性があまり良くないようです。Galaxy Quantum 5(A55)では、漢字を無限に繰り返して返答する問題があるようですね。

 
GN⁺ 24 일 전
Hacker Newsのコメント
  • 本当に印象的なモデルだ。今はMacで動かしているが、これがiPhoneでもローカル実行できるなら試してみたい。
    このモデルをhereticスクリプトでdealignment(検閲解除)してみたが、本当によく動いた。自分でgemma4-hereticalリポジトリも作って整理した。
    MLX版も作れるが、Macではやや速い一方でOllamaでは動かない(LM Studioなら動くかもしれない)。
    M4 Macbook Pro 128GBでは非常に快適に動き、64GBでも問題なさそうだ。メモリが少ないなら量子化の段階を下げる必要がある。
    自分はこういう
    ローカルの非整列モデル
    が好きだ。外部プラットフォームで検閲される代わりに、自分の端末の中で自由に実験できる。"センシティブだが生産的な"会話が可能になる。
    OpenClawに接続しようとしたが問題が起きた。もちろんこうしたアプローチが悪用される可能性はあるが、善意の利用者のほうがはるかに多いと思う。

    • 自分はMacでomlxを使ってMLXモデルを動かしているが、とてもうまく動いている
    • abliterateスクリプトを見たが、正確に何をしているのかわからない。どんな種類の会話が可能になるのか気になる
    • Macでコーディング用途に使ってみたが、Qwenほど印象的ではなかった。特定の領域ではより良いかもしれないが、まだよくわからない
    • まだagent skillsプラットフォームで何か作ってはいないが、かなり興味深い。AndroidではsandboxがWebViewにindex.htmlを読み込み、標準化された文字列I/Oでやり取りする。将来のエッジコンピューティングエージェントサンドボックスの初期形のように感じる
    • ローカルLLMでどんな"センシティブな会話"を試すつもりなのか、例を挙げてもらえるとありがたい
  • このアプリはすばらしいが、E2Bモデルの潜在力をすべて見せているわけではない。
    自分はM3 ProでGemma E2Bを使ってリアルタイムの音声・映像AIを作り、Parlorという名前で/r/LocalLLaMAに投稿した。かなり反応が良かった。
    Macbookで動かしているが、このベンチマークによればiPhone 17 Proでも十分可能だ。

    • Parlorは本当にすごい。しかも無料で公開しているとは見事だ。ローカルLLMの優れた活用例だと思う
  • iPhoneでモデルを動かしてみたが、かなり良い結果が得られた。クラウドのGeminiには及ばないが、十分実用になる。
    "モバイルアクション"機能で懐中電灯をつけたり地図を開いたりといったデバイス制御ができるのが興味深い。Siri Shortcutsと連携できたら本当に良さそうだ。
    教師向けアプリを作る立場として、ローカルモデルの普及はとても歓迎している。個人情報保護法のためクライアント側での実行が重要だからだ。iOSやChromeにもオンデバイスモデルAPIはあるが、まだ品質が低い。

    • 自分にはこのモデルのハルシネーションが昔に戻ったように感じる。それでもローカルでここまで動くのは印象的だ。今後も数年前レベルのモデルであってもローカルで動かし続けられるといい
  • AIの現実的な未来は2つしかないと思う —— ローカルなオンデバイス無料実行か、クラウドの高コストサービスだ。
    後者は、人間がより高価だったり遅かったりする作業にしか使われなくなるだろう。Gemma 4モデルは、iPhoneやmacOSに統合された未来のSiri、つまり映画『Her』のようなアシスタントの可能性を示している。

    • なぜクラウドのほうが高くなると思うのか気になる。大企業はすでに推論段階で利益を出している。クラウド専用ハードウェアのほうが効率的だし、スマホで動かせばバッテリーを食うだけだろう
    • 消費者向けデバイスで無料モデルを動かせるなら、クラウド提供者もより高品質で付加価値のあるものを束ねて提供できるのではないか?
    • ベンダーが支配するスマホでローカルモデルを動かすとしても、本当の意味でのローカルな自律性ではない
    • これはあなたが夢見る未来への第一歩ではない
    • 『Her』を見て、本当にそういう未来が来てほしいと願ったのか真剣に聞きたい
  • 英語版アプリのリンクを共有する。
    iOS用 Google AI Edge Gallery
    Android版
    GoogleのEdgeプロジェクトのデモアプリだ

  • モデルの大半はまだダウンロード不可の状態だ。近日公開されることを期待している

  • App StoreのWebページが偽物のように見えるという疑問が出ている。ヘッダーテキストがピクセル化しており、背景がちらつき、アイコンの品質も低い。

    • 同じ米国版ページでもデザイン品質は低い。Appleはもはやデザインが中核的な強みではないようだ。
    • URLに/nl/があるのでオランダ版だ。標準のApp Storeメインは少し良いが、それでもまだ不自然だ。
    • おそらくローカライズ品質の問題だろう。自分のiPhoneではApp Storeアプリで開くと問題なく見える。
    • Firefoxではこの現象は見られない
    • GrapheneOSのFirefoxでは完璧にレンダリングされる
  • iPhone 16 ProでGemma-4-E2B-itモデルをテストしたところ、毎秒30トークンほど出た。スマホはかなり熱くなったが、性能は印象的だった。自分のアプリにも適用してみるつもりだ

  • うちの息子がAndroidで2Bモデルを使い始めた。安価なMotorolaのスマホでもよく動き、外国語の読み書き練習に活用している。モデルの軽量化には本当に驚かされる

  • 新しいモデル群は非常に印象的だ。AI Edge GalleryはGPUで動くが、最新チップのNPUのほうがはるかに速い
    たとえばA16チップは35 TOPSのNeural Engineを搭載しており、GPUは7 TFLOPS程度だ。Qualcommも似たような状況だ。

    • こうした低消費電力チップでその性能が出るのは驚きだ。Mシリーズ版が楽しみだ。デスクトップとスマホに超高速TPU時代がもうすぐ来そうだ