- Ollamaが最新のWeb情報検索機能をAPIとして公開し、モデルのハルシネーションを減らして精度向上を支援する機能を提供
- 無料アカウントにも十分な無料検索枠が含まれ、高頻度ユーザーはOllama Cloudを通じてより高い上限を利用可能
- REST APIベースでPython、JavaScriptライブラリと統合され、OpenAIの
gpt-ossのようなモデルが長時間のリサーチ作業を実行可能
web_searchとweb_fetch機能により数千トークン規模の結果を返し、MCPサーバーを通じてCline、Codex、Gooseなどさまざまなツールとの連携をサポート
- これを活用して検索エージェントを直接構築でき、AIモデルが最新データと相互作用する汎用性を大きく拡張可能
OllamaのWeb検索機能紹介
- OllamaはWeb検索APIを公開し、AIモデルに対して即座に最新のWeb情報を提供できる環境を提供
- これにより、ハルシネーション(hallucination)の低減とあわせて精度向上の効果が期待できる
- 個人ユーザーには十分な無料検索枠を提供し、より高い利用量が必要な場合はOllama Cloudサブスクリプションを通じて枠を拡張できる
- REST APIとして提供され、PythonおよびJavaScriptライブラリを通じて高度なツール統合をサポート可能
- このような構造により、gpt-ossなどさまざまなモデルが長期的な研究や検索作業を実行できる
APIの使い方の例
- Ollamaアカウントで発行されたAPIキーを使用し、
cURL、Pythonではollama.web_search()、JavaScriptではclient.webSearch()を呼び出せる
- 結果はタイトル、URL、本文要約を含むJSON構造で返される
web_fetch APIを使えば、URL単位のページ内容を本文テキストとリンク一覧まで取得できる
Web検索ベースの検索エージェント実装
- Ollama APIはQwen3、gpt-ossのようなモデルと組み合わせることで、自動化されたマルチターン検索エージェントを開発可能
- サンプルコードではQwen3:4Bモデルを活用して検索 → 推論 → 結果要約の過程を自動化
- 検索結果に基づいて「Thinking」の過程を経て、検索/フェッチツール呼び出し結果を反復的に利用し、複雑な研究や探索シナリオを実行する
- Ollamaエンジンの新しいアップグレードには、正確なメモリ管理、GPU/マルチGPU最適化、性能向上、および**ビジョン(マルチモーダル)**モデルへの本格対応などが含まれる
推奨モデルと性能の案内
- 強力なツール活用能力を持つクラウドモデル(例:
qwen3:480b-cloud、gpt-oss:120b-cloud、deepseek-v3.1-cloud)を推奨
- 検索・フェッチツールは数千トークンに達するデータを返す可能性があるため、モデルのコンテキスト長を約32000トークン水準まで増やすことが推奨される
個別Webページのフェッチ機能
- Web検索のほかにも、指定した個別Webページのテキストとリンク構造を直接フェッチできるAPI・関数が提供される
- Python、JavaScript、またはcURLで簡単にurlを引数として渡し、ページの
title、content、関連リンクなどを抽出できる
- より詳しいサンプルコードは公式GitHubリポジトリで確認できる
ツールとエージェントの統合
web_search、web_fetchは数千トークンのデータを返すため、モデルコンテキストを32K以上に増やすことを推奨
- MCPサーバー対応により、Cline、Codex、GooseのようなAI開発環境と直接連携可能
- PythonとJavaScriptのサンプルコードが公式GitHubリポジトリで提供される
はじめに
- Web検索は無料のOllamaアカウントで基本提供され、より高い利用量は有料サブスクリプションを通じて利用可能
- OllamaのWebサイトでアカウントを作成し、APIキーを発行すればすぐにサービスを利用できる
3件のコメント
無料のollamaでは、実運用に使えるレベルにはならなさそうですね..
料金ページにも割り当て量の説明がないので、値打ちがあるかどうか判断しにくいですね
Hacker Newsの意見