- ローカルAIエコシステムの持続的な発展のため、
llama.cppの創設チームである ggml.ai が Hugging Face に加わった
ggml と llama.cpp は今後も オープンソース・コミュニティ中心 で運営され、チームはフルタイムで保守・支援を続ける予定
- Hugging Face はプロジェクトの 長期的な持続可能性 を確保し、ユーザー体験と transformers との統合性 向上に注力する計画
- 協業を通じて ローカル推論(Local Inference) のアクセス性とデプロイの容易さを高め、さまざまなモデルアーキテクチャへの対応を強化する
- オープンソースの超知能(superintelligence)を 世界中の誰もがアクセス可能な形で構築 する長期ビジョンを共有している
ggml.ai の Hugging Face 参加発表
- ggml.ai は
llama.cpp の創設チームとして、未来のAIを真にオープンなものとして維持 するため Hugging Face に加わった
- 目標は
ggml および llama.cpp コミュニティを拡大・支援し、ローカルAIの 持続的成長 を促進すること
ggml-org プロジェクトは従来どおり オープンソースかつコミュニティ主導 のまま維持される
- ggml チームは
ggml、llama.cpp、および関連するオープンソースプロジェクトを フルタイムで保守・管理 する
- 新たなパートナーシップはプロジェクトの 長期的な持続可能性 を確保し、ユーザーと貢献者に 新たな機会 を提供する
- Hugging Face の
transformers ライブラリとの 統合改善 により、モデル対応の品質向上を図る予定
背景と協力の経緯
- ggml.ai は 2023 年の設立以来、
ggml 機械学習ライブラリの開発と普及を支援してきた
- 過去 3 年間、小規模なチームがオープンソースコミュニティを成長させ、
ggml を 効率的なローカルAI推論の標準 として定着させた
- この過程で Hugging Face は最も強力な協力パートナーとして活動してきた
- HF のエンジニアが
ggml と llama.cpp に 中核機能の提供、マルチモーダル対応の追加、Inference Endpoints 統合、GGUF フォーマット互換性の改善 などを行った
- 両者の協力は効率的に進み、コミュニティ全体がその恩恵を受けたことから、今回の参加は 協力の公式化 へとつながった
オープンソースプロジェクトとコミュニティの変化
ggml と llama.cpp の運営方式に 変更はない
- チームはプロジェクト保守に専念し、コミュニティは 技術的・構造的な意思決定の自律性 を維持する
- Hugging Face は 持続可能なリソース を提供し、プロジェクトの成長可能性を高める
- プロジェクトは今後も 100% オープンソース を維持し、モデル公開後の 量子化(quantization) 対応の速度向上も見込まれる
技術的な焦点
- 今後の共同目標は 2 つの中核的な方向に設定されている
- Hugging Face transformers とのワンクリック統合
transformers は AI モデル定義の標準として定着しており、両エコシステム間の互換性向上は モデル対応拡大と品質管理 に不可欠
- ggml ベースのソフトウェアのパッケージングとユーザー体験の改善
- ローカル推論がクラウド推論の代替として台頭する中、一般ユーザーのモデル配備・アクセス性 を簡素化する必要がある
llama.cpp を 普遍的でどこでも使える形 にすることを目指す
長期ビジョン
- ggml.ai と Hugging Face は、オープンソースの超知能(superintelligence) を世界中の誰もが利用できる形で構築することを共通目標としている
- ローカルAIコミュニティとともに 効率的な推論スタック を開発し、個人向けデバイスでも最大性能を発揮できるよう継続的に発展させる計画
コミュニティの反応
- Hugging Face および ggml コミュニティの参加者は、祝福と期待 のメッセージを数多く寄せた
- 「ローカルAIエコシステムにおける大きな前進」「オープンなAIエコシステムにとって重要なニュース」などの前向きな反応
- 一部のユーザーは プロジェクトの独立性とコード所有権 について明確な説明を求めた
- 別の意見では、企業による買収に伴う管轄の変化 や オープンソースの透明性 に対する懸念も示された
- 全体としてコミュニティは今回の協力を ローカルAIの持続的成長を支える基盤 と評価している
1件のコメント
Hacker Newsのコメント
HuggingFace こそ本当の意味での「Open AI」だと思う
静かに オンプレミスAI を大衆に広めた数少ない英雄の一つだと思う
トラフィックコストが高かった時代を覚えているが、これほど多くのモデルを無料でホスティングしているのは驚きだ
持続可能なビジネスモデルがあることを願う。このエコシステムは彼らなしではずっと貧弱になってしまう
Kimi や GLM をローカルで動かすには依然としてコスパの良いハードウェアが必要だが、少なくとも 重みと配布 は解決されている
ドキュメントが素晴らしく、主要フォーマット向けに高品質な quant を素早く提供している。信頼できるブランドだと思う
数百GB級のモデルを頻繁にダウンロードしているが、主権AIコミュニティ にとってものすごいサービスだ
一晩かけて計算する用途なら十分実用的で、計算資源を増やすほど徐々に良くなる
hf-torrent や hf_transfer はあるが、Web UI からそのまま使えるリンクほどの手軽さはない
Georgi Gerganov と llama.cpp がローカルモデルのエコシステムに与えた影響は過小評価できない
2023年3月、コンシューマー向けノートPCで LLaMA を動かし、革命を始めた
当時の README には「MacBook で 4-bit 量子化によりモデルを動かすのが目標」と書かれていた
Hugging Face が Transformers をうまく運営してきたように、GGML も同じ道を歩むことを期待している
関連記事は ここ にまとまっている
HuggingFace が世界にこれほど多くの良い影響を与えながら、利益も出している のは驚きだ
ビジネスモデルがどれほど堅牢なのか、長期的に持続可能なのか、いつか「売られてしまう」可能性があるのか気になる
記事リンク
無料でコミュニティを育て、企業にはプライベート版を販売する。すでに黒字だ
かなりしっかりした基盤だと思う
AMD、Nvidia、Intel、IBM、Qualcomm のような投資家がユーザーの自律性のために戦っているというのは、少し皮肉だ
どのサービスの料金なのかわからず、アカウントを解約した。不透明な課金プロセス が不快だった
HuggingFace はAI分野の 静かな GOAT だ
コミュニティとプラットフォームが素晴らしい
「コミュニティは自律的に運営され、100%オープンソースのまま残る」という言葉が本当であってほしい
だが結局は ビジネス上の利害 が勝つ可能性が高い
Llama.cpp はローカル推論の事実上の標準になっており、多くのプロジェクトがこれに依存している
特定の企業がこれを支配すれば、ローカル LLM エコシステム全体を支配することになる
Hugging Face は今は良く見えても、昔の Google もそうだった
ロックイン効果(lock-in) を避けるには、独立した非営利団体が管理するか、競合プロジェクトが必要だ
「支配」は特定機能の開発を支援する程度にとどまる
ggml チーム が量子化技術をみんなに公開してくれたことに本当に感謝している
彼らの努力が大きな変化を生んだ
2023年から GitHub 経由で ggml/llama.cpp/Georgi を支援してきたが、今は良い居場所を見つけたようでうれしい
なので支援を終了しようと思う
HuggingFace と GGML の組み合わせは完璧な組み合わせに見える
むしろもっと早く起きるべきだったと思う
今はローカルAIの 谷の時期 だが、2〜3年以内に爆発的に成長すると期待している
@ngxson のような HF メンバーは llama.cpp の主要コントリビューターだ
MacBook M1 8GB のような低スペックなシステムで、Docker を使ってモデルを効率よく動かす方法を探している
Cybersecurity-BaronLLM のようなモデルは魅力的に見えるが、結局ノートPCがヒーターになってしまう
もっと強力なハードウェアを買うべきだろうか?
Whisper、SmolVLM、Phi-3-mini、Gemma3 のようなモデルを勧める
home-llm の例を参照
Mac では Ollama や MLX を使うとよく、Docker Desktop や Colima で VM を構成できる
8GB なら毎秒 5〜10 トークン、32GB なら 50 トークンほど可能だ。だから問題は RAM不足 だ
小さなモデルや 量子化モデル を使うか、より強力なハードウェアを買うか借りる必要がある
Docker なしで LM Studio から始めてみるのもよい
完璧ではないが、大きなパラメータよりはましだと思う
遅く品質も低いが、可能ではある
AI開発にどう現実的に参加できるか考えている
会社では Copilot しか使っていないので、AI開発エコシステム から切り離されている感覚がある
Java/React のフルスタックの背景があり、Python も少し扱える
LLM from scratch をやってみるべきか、Google ML Crash Course や Nvidia の資格を取るべきか悩んでいる
助言を求める
最初から LLM で始めず、グラフィックスなど関心分野で小さく始めるべきだ
Unsloth には無料の Colab ガイドがよくまとまっている