1件のコメント

 
GN⁺ 2024-11-30
Hacker Newsのコメント
  • ブログ記事が増えているのは良いことだが、llama.cpp のビルド方法は複雑に感じられる

    • ccmake . コマンドでハードウェアに合わせたパラメータを設定してビルドできる
  • 古い Dell ノートPCで Llama.cpp の実行に成功した体験の共有

    • 最小構成でも動作し、遅いものの正確な回答を提供した
    • より良いハードウェアでより大きなモデルを動かしてみたい
  • Llama.cpp をインストールしたかったが、UX がより優れている kobold.cpp をインストールすることになった

  • Windows と AMD でのビルドを試した経験の共有

    • Vulkan と MSYS2 が最も簡単に動かせた
  • Llama.cpp がサポートする LLM の制限事項に関する質問

    • 特定の Transformer モデルのみをサポートしているのか気になっている
  • Ollama に移行した経験の共有

    • Ollama のサーバーおよびクライアント設定は簡単に動作する
  • Ollama は単なる llama.cpp のラッパーではない点を強調

    • Ollama はモデルインターフェースやパッケージングのためのさまざまな機能を提供する
  • ChatGPT のWebインターフェースの代わりに Llama.cpp を使う理由についての質問

    • 主な理由はプライバシー保護なのか気になっている
  • ChatGPT と Claude を毎日使っているが、LLM をそれ以外のサービスとは別に使う理由が見つからない

  • Ollama と llama.cpp の直接実行に関する議論

    • CUDA の設定が常に簡単とは限らず、ローカル推論のほうが速い場合もある
    • PyTorch での実行のほうが簡単で、AWQ モデルは手軽にインストールできる