13 ポイント 投稿者 GN⁺ 2025-09-29 | 3件のコメント | WhatsAppで共有
  • Ollamaが最新のWeb情報検索機能をAPIとして公開し、モデルのハルシネーションを減らして精度向上を支援する機能を提供
  • 無料アカウントにも十分な無料検索枠が含まれ、高頻度ユーザーはOllama Cloudを通じてより高い上限を利用可能
  • REST APIベースでPython、JavaScriptライブラリと統合され、OpenAIのgpt-ossのようなモデルが長時間のリサーチ作業を実行可能
  • web_searchweb_fetch機能により数千トークン規模の結果を返し、MCPサーバーを通じてCline、Codex、Gooseなどさまざまなツールとの連携をサポート
  • これを活用して検索エージェントを直接構築でき、AIモデルが最新データと相互作用する汎用性を大きく拡張可能

OllamaのWeb検索機能紹介

  • OllamaはWeb検索APIを公開し、AIモデルに対して即座に最新のWeb情報を提供できる環境を提供
  • これにより、ハルシネーション(hallucination)の低減とあわせて精度向上の効果が期待できる
  • 個人ユーザーには十分な無料検索枠を提供し、より高い利用量が必要な場合はOllama Cloudサブスクリプションを通じて枠を拡張できる
  • REST APIとして提供され、PythonおよびJavaScriptライブラリを通じて高度なツール統合をサポート可能
  • このような構造により、gpt-ossなどさまざまなモデルが長期的な研究や検索作業を実行できる

APIの使い方の例

  • Ollamaアカウントで発行されたAPIキーを使用し、cURL、Pythonではollama.web_search()、JavaScriptではclient.webSearch()を呼び出せる
  • 結果はタイトル、URL、本文要約を含むJSON構造で返される
  • web_fetch APIを使えば、URL単位のページ内容を本文テキストとリンク一覧まで取得できる

Web検索ベースの検索エージェント実装

  • Ollama APIはQwen3、gpt-ossのようなモデルと組み合わせることで、自動化されたマルチターン検索エージェントを開発可能
  • サンプルコードではQwen3:4Bモデルを活用して検索 → 推論 → 結果要約の過程を自動化
  • 検索結果に基づいて「Thinking」の過程を経て、検索/フェッチツール呼び出し結果を反復的に利用し、複雑な研究や探索シナリオを実行する
  • Ollamaエンジンの新しいアップグレードには、正確なメモリ管理GPU/マルチGPU最適化性能向上、および**ビジョン(マルチモーダル)**モデルへの本格対応などが含まれる

推奨モデルと性能の案内

  • 強力なツール活用能力を持つクラウドモデル(例: qwen3:480b-cloudgpt-oss:120b-clouddeepseek-v3.1-cloud)を推奨
  • 検索・フェッチツールは数千トークンに達するデータを返す可能性があるため、モデルのコンテキスト長を約32000トークン水準まで増やすことが推奨される

個別Webページのフェッチ機能

  • Web検索のほかにも、指定した個別Webページのテキストとリンク構造を直接フェッチできるAPI・関数が提供される
  • Python、JavaScript、またはcURLで簡単にurlを引数として渡し、ページのtitlecontent、関連リンクなどを抽出できる
  • より詳しいサンプルコードは公式GitHubリポジトリで確認できる

ツールとエージェントの統合

  • web_searchweb_fetch数千トークンのデータを返すため、モデルコンテキストを32K以上に増やすことを推奨
  • MCPサーバー対応により、Cline、Codex、GooseのようなAI開発環境と直接連携可能
  • PythonとJavaScriptのサンプルコードが公式GitHubリポジトリで提供される

はじめに

  • Web検索は無料のOllamaアカウントで基本提供され、より高い利用量は有料サブスクリプションを通じて利用可能
  • OllamaのWebサイトでアカウントを作成し、APIキーを発行すればすぐにサービスを利用できる

3件のコメント

 
shakespeares 2025-10-06

無料のollamaでは、実運用に使えるレベルにはならなさそうですね..

 
slowandsnow 2025-09-30

料金ページにも割り当て量の説明がないので、値打ちがあるかどうか判断しにくいですね

 
GN⁺ 2025-09-29
Hacker Newsの意見
  • 内部的にどの検索エンジンを使っているのか気になる。Twitterで問い合わせもしていた https://twitter.com/simonw/status/1971210260015919488。特に重要なのは検索結果のライセンス。保存や再配布が可能なのか、提供者ごとにルールが異なる
    • 我々は検索プロバイダと提携しており、データ保持ポリシーが一切ない環境を保証している。検索結果はユーザーが所有し、自由に利用可能。ただし、現地法は必ず遵守する必要がある
    • AIモデルの学習中だと言えば、好きなように使える
    • 検索結果が単なるリンク一覧にすぎないなら、そもそも著作権が成立するのか疑問
    • プライバシーポリシーすらないままこうした機能を出したのは奇妙。もしかすると、最近出資したVCパートナーとの協業事例や顧客ストーリーとして使われているのではないかと推測。Exaに賭ける。初期にYCの支援を受け、Series Bで$85Mを調達している。BingはMicrosoftとの提携なしに自由に運用するには高すぎるはず。Ollamaが早いうちにプライバシー通知を更新してほしい。本社がCAにあるのでCCPAの適用対象であり、収益がなくてもカリフォルニア居住者5万人分のデータを扱えば該当する https://oag.ca.gov/privacy/ccpa。データ保持のないバックエンド提供者がAlibabaだと判明したら、どう反応するのか気になる
  • Ollamaが事業会社だったのか気になった。出資も受けていたとは知らなかった。オープンソースのユーティリティだと思っていた。今後どうやってユーザーを収益化するつもりなのか気になるが、あまり期待していない
    • 最近は完全にオープンソースで公開されるプロジェクトはほとんどなく、大半は寄付モデルか企業スポンサーを受けている。AI分野ではなおさら珍しいと思う
    • OllamaはDocker出身の社員がDocker流で運営している
    • 少し前にホスティングプラットフォームを立ち上げた
    • あなたの返信を見るまでは、この投稿がOpenAI関連だと思っていた
  • Ollamaの実装方法について、もっと詳しい情報があればよかった。オープンソースかつプラットフォーム非依存のツールだと見ていたが、最近の雰囲気はそうではないと感じて悩んでいる
    • Ollamaにヘッドレスブラウザなどで検索結果やWebサイトの内容を取得する機能を入れることも検討したが、結果品質やIPブロック(クローラーのように見える可能性がある)が懸念だった。ホスティングAPIの導入がより速く結果を提供する道だと考えたが、ローカルオプションも引き続き模索中。理想的には、ユーザーが望めば完全にローカル環境だけでもこうした検索機能を使えるようにしたい
    • GUIはオープンソースではない。手軽なアプリが欲しいならLMStudioを使うほうがよいかもしれない(OSSのふりをしていないので)。ramalamaもLLMをコンテナ化している点ではollamaに近い。あるいはllama.cppやvllmのような「基礎」に戻るのも手だ
    • Ollamaの運営の仕方はどんどん悪化している気がする。信頼を失ったので、すべてのシステムから削除した
  • Ollamaはますます非ローカル寄りになっている気がするし、性能もvLLMより劣ると感じる。OpenAI互換API経由でopen-webuiのようなものを動かし、ユーザーが複数のLLMから選べる環境を作りたいのだが、RTX 3090を複数枚(1〜5枚)うまく活用できるOllama代替が気になる
    • Llamaswapやvllmの話を聞いたことがある
  • Ollamaが自前のクラウドサービスをやっているとは知らなかった。そもそもOllamaの趣旨はローカルモデルではなかったのか。なぜより小さく低性能なモデルを使うために月額$20を払ってこれを使う必要があるのか疑問。OpenAIやMistralのようなAI企業を使うほうがよいのではないか。自分のPCでモデルを使うのに、わざわざアカウントまで作る必要を感じない
    • もっともな質問だ。サポート対象モデルの中には、ほとんどのデバイスでは動かせないほど大きなものもある。今はまだ始まったばかりで、我々はモデルプロバイダとの関係により、Ollamaでもクラウドベースの最新モデルを受け入れられる。Ollamaは開発者とともにあり、そのニーズを解決することを目指している https://ollama.com/cloud
    • アカウントを作る理由は、彼らのホストモデルを使うか、Ollama API経由でローカルのモデルを活用するため。今Claudeに$100、GPT-5に$200使っているが、$20はこうしたモデル群を使うには本当に安い。Qwen3 235b、Deepseek 3.1 671b、Llama 3.1 405b、GPT OSS 120bなどで、決して「小さくて低性能」ではない。CodexをOllama APIに接続して複数モデルでツールを使えるようにするのも非常に魅力的だ
    • 収益化可能な機能へ継続的に移行してきた流れだと見ている。オープンソースと無償労働で信頼とブランドを築いたあと、現金化に転換している
    • ローカルでは動かせないモデル(gpt-oss-120b、deepseek、qwen3-coder 480bなど)もある。Ollamaの成功を収益化する方法ではある
    • 多くの「ローカル」モデルでさえダウンロードサイズが大きく、普通のハードウェアでは遅い。まずクラウドで安価に評価してから、ローカルにダウンロードするか決められるのが利点。重要なのは、実際に何かをローカルで動かせる「可能性」という原則そのものだ。誰かが簡単に取り上げたり止めたりできる技術に依存したくない
  • 少し話は逸れるが、個人用途で「ミニGoogle」を家の中に構築しようかと考えている。実際、検索が必要になるケースの大半は1,000程度のWebサイト内で足りると感じた。Web全体をクロールするのは自分にはオーバーだ。ざっくりした設計は、クローラー(軽量スクレイパー)、インデクサー(テキスト変換と逆インデックス)、ストレージ(HTMLとテキストの圧縮保存)、検索レイヤー(TF-IDFまたは埋め込みベースのスコアリング)、定期更新、そして簡単なWeb UIでの閲覧といった構成。実際に使ったことのあるプロジェクトや、似た挑戦をした人がいるか気になる
    • Common Crawlのダンプを見たことがあるが、Webの99.99%は広告、ポルノ、スパム、無意味なブログなどで、本当に役に立たなかった。歴史的・文化的価値や文学的価値はあるのかもしれないが、自分の目的にはほぼ無用だった。そのおかげで、「本当に重要なWebページ」だけを選択的にインデックスすれば、自分のノートPC級でも十分可能だという確信を持てた。Wikipediaだけでも約20GB(圧縮時)なので、自分が実際に知りたい話題だけを抜き出せば200MBにも満たない
    • YaCy (https://yacy.net) なら大半は実現できる。ただし、クロールをやりすぎるとCloudflareにIPをすぐ止められるかもしれない
    • https://marginalia-search.com もとても好きだ
    • Drew DeVaultは以前、SearchHutという名前で似たものを作ろうとして中止した。PostgresのRUM拡張を理解しようとして、結局諦めたらしい SearchHutに言及したHNスレッドへのリンク
    • まったく同じではないが、自分もドメインごとのGoogle CSEで関心のあるトピックに合うサイトだけに検索結果を絞って使っている。Alfredからショートカットで即呼び出せるようにしていて、興味分野だけは快適に検索できる https://blog.gingerbeardman.com/2021/04/20/interest-specific-search-engines/
  • ローカル・エンタープライズ検索まわりのヒントがあれば知りたい。Ollamaをローカルで使いながら、自分の文書も直接インデックスしている。ドキュメントを埋め込み化したりファインチューニングしたりするのではなく、伝統的な全文検索システムにOllamaを統合する方法が気になる
    • solrを勧める。非常に優れた全文検索で、mcp統合もあるので簡単に使える https://github.com/mjochum64/mcp-solr-search。もう少し手を加えれば文書をベクトル化して、knnベースの意味類似検索も組み合わせられる。意味検索とテキスト検索の両方を使えるので品質もよい。chromadbとsolrを連携して結果を統合することもできそうだが、規模が大きくなるとchromadbのほうが効率的かもしれない
    • doclingもよい代替になりうるし、Typesenseのような実績ある全文検索エンジンも検討に値する
  • 以前からLLMにPythonのDuckDuckGoパッケージをつないで検索機能を使っていた。ただ、Googleのほうが結果が良かったので、デベロッパーコンソールで何か設定してGoogleに切り替えた(正確に何をしたかは覚えていない)。DDG側は非公式で、Google公式APIにはクエリ制限がある(なので深い調査には向かない)。普通は検索結果を数件GPTに入れて自分の質問を足せば、大抵はよい答えが返ってくる。Ollamaでももちろんこの構成は使えるが、GPUが弱いのでコンテキストが長いと遅くなる
    • スクレイピングAPIなしで意味のある形で活用するにはどうすればよいのか気になる。公式APIは制限が厳しすぎるからだ
  • 「Ollamaアカウント」が何を意味するのか混乱する。最初はOllamaはモデルをセルフホストするのが趣旨だと理解していた
    • 追加機能やOllamaがホストするクラウドモデルのためにはアカウント登録が必要。基本的には本当に任意で、完全にローカルで自分でモデルを作ってollama.comに共有することも可能だ
  • 自分も今ちょうどWeb検索をつないで複数ベンダーを試しながらツールを作っている。openAI、xAI、geminiは競合サイトではブロックされるので使えない。YT動画ではこの検索は簡単なテスト結果としてうまく動いていて、OpenAI web searchと違ってアクセスできた。Xではあまりうまくいかなかったが、ときどきはよい結果を返した。完璧ではないにせよ、平均的には実用になる結果だった