- MLXライブラリを活用してMac上で直接実行し、強力な最新のQwen3-30B-A3B-8bitモデルをローカルでサービング
- LocalforgeでこれをOpenAI API方式で連携し、エージェントループを構築
- ollamaベースの補助モデル(Gemma3)を追加構成して、エージェント補助の役割を分離し、効率的なツール利用が可能
- エージェントはLocalforgeのUIで設定後、「LSツール実行」、Webサイト生成、スネークゲームの自動実行まで実施
- この一連の流れは無料で、ローカルで完全に自律動作可能であり、Macユーザーなら自分で試してみる価値のあるプロジェクト
MacでQwen3をローカル実行する
Localforgeの設定
- 公式サイト: https://localforge.dev
- インストール後、設定で以下の構成が必要:
-
プロバイダー追加
- a) Ollamaプロバイダー(補助モデル)
- 名前: LocalOllama
- タイプ: ollama
- インストール必要: gemma3:latestモデル(シンプルな言語処理に適している)
-
b) Qwen3プロバイダー(メインモデル)
-
エージェント作成
- 名前: qwen3-agent
- メインモデル: qwen3:mlx:30b(モデル名:
mlx-community/Qwen3-30B-A3B-8bit)
- 補助モデル: LocalOllama(モデル名:
gemma3:latest)
結論
- Macで無料で大規模モデルをローカル実行し、エージェントベースの自動コーディングが可能
- モデル選択やシステムプロンプトのチューニングによって、より精緻な結果も可能
- Localforge + MLX + Qwen3は個人向けLLM実験に非常に有用な組み合わせ
3件のコメント
ローカルで30bならかなり良さそうですね? Qwen2.5-Coder はいまいちでしたが、試してみる価値はありそうです。
Qwen3 - より深く考え、より速く行動する次世代言語モデル
Hacker Newsのコメント
Qwen3-30B-A3Bモデルをローカルで使っているが、非常に впечат象的。GPT-4を待っていた人たちにとっては代替になりそう。M3 Maxで70 tok/s出ており、とても使いやすい
qwen3を実行して
lsツール呼び出しをするのは「vibe coding」ではない。これはLocalForgeの宣伝のように見えるMLXとMLX-LMを称賛したい。Gemma 3モデルをローカルでファインチューニングするのに使っているが、Appleの開発者が作ったライブラリやツールはよく整理されている
偶然Qwen3を簡単なプロンプトでループに陥らせた
MCPと一緒に、ローカルLLMが作業を協調して実行したり、コンテキストを圧縮したり、クラウドエージェントと協力したりできる設定を知っている人はいる?
ローカルで実際の自律エージェントを動かして簡単な作業をさせる短いチュートリアルを共有したい
LocalForgeを見つけられてうれしい。LocalForgeについて質問がある。2つのエージェントを組み合わせて、画像をマルチモーダルエージェントに渡してhtml/cssを出させ、別のエージェントに残りのコードを書かせることはできる?
とても印象的。有料トークンモデルと同じくらい良い必要はない
良さそう。GoogleのGemma 3 27Bと組み合わせて使える、ローカル優先のAI支援IDEを探していた
ローカルでモデルを動かすことが、いまや面白くなってきている。特に30B-A3B版は有望な方向に見える。16 GB VRAMではまだ届かないが、かなり手が届きやすい