kurthong 26 일 전 | 親コメント | トピック: やりたいことを本当にやり遂げる人たちのたった一つの違いは、自己関連性を判断する能力にある (blog.archcalendar.com) 結局のところAnalyticsの広告に見えます。もっともらしくはあるけど、結局は広告で、hada.ioの運営者さんもちょっと放置しすぎている気もします。 kurthong 26 일 전 | 親コメント | トピック: rtk - LLMのトークン消費を60〜90%削減するCLIプロキシ (github.com/rtk-ai) 結局は品質とのトレードオフで、失われた品質を復元するためにかえってトークンをより多く使う構造になってしまうのではないか、という懸念もあります。 kurthong 26 일 전 | 親コメント | トピック: LLM-Wiki - LLMを活用して個人知識ストレージを構築する (gist.github.com/karpathy) bm25 は韓国語検索に弱いため、別途、韓国語も適切に検索できるガードレールも適用してあります kurthong 26 일 전 | 親コメント | トピック: LLM-Wiki - LLMを活用して個人知識ストレージを構築する (gist.github.com/karpathy) 大きな文脈では過去の対話の検索であり、整理まわりの課題さえうまく交通整理できれば良いアイデアだと思います。実際、私もプロジェクトの整理にとても役立ったと感じています。 kurthong 26 일 전 | 親コメント | トピック: LLM-Wiki - LLMを活用して個人知識ストレージを構築する (gist.github.com/karpathy) 私も実装してみました。複数のハードウェアを使っているときに Obsidian ボルトを GitHub バックアップと連携できるよう、少し追加しました。Codex、Gemini 用のパーサーも作って入れてあります。 https://github.com/hang-in/seCall brainer 26 일 전 | 親コメント | トピック: もしあなたがクロード・ブルーでつらいなら (kciter.so) 現代のLLMを「次の単語予測」と片付けるなら、AlphaGoも「次の一手予測」にすぎません。 ChatGPT以降、次の単語予測は単なるpre-trainedにすぎません。 憲裁は目標を達成するモデルです unstabler 26 일 전 | 親コメント | トピック: AWSエンジニア、Linux 7.0でPostgreSQL性能が半減したと報告 – 修正は容易でない可能性 (phoronix.com/news) 聞くところによると、カーネル開発者たちは10〜20年近く前から PostgreSQL 開発者に対して「ユーザーランドでのスピンロックは推奨しないので、見直してほしい」と話していたそうです.. https://x.com/kosaki55tea/status/2040458791536497035 edunga1 26 일 전 | 親コメント | トピック: Harness — Claude Codeエージェントチーム&スキルアーキテクトプラグイン (github.com/revfactory) すでに Claude code agent team を使っているなら、特に目新しいものはありませんでした。 ただ、チーム構成情報などを新しいセッションでも引き継げるように、agents や skills を活用してインフラを構築できるのは便利でした。 手動でチームを構成すると、チーム向けのボイラープレートのようなものが繰り返し発生していたからです。 問題が1つあって、subagent と agent team の両方を考慮した環境であるため、Supervisor パターンでは、監督者がチームが生成済みであるにもかかわらず、subagent に作業を委任してしまう妙な状況がしばしば発生します。 lastorder 26 일 전 | 親コメント | トピック: Google AI Edge Gallery - 完全オフラインLLMギャラリーアプリをオープンソース化 (github.com/google-ai-edge) https://github.com/google-ai-edge/gallery/issues/437 Exynosとの互換性があまり良くないようです。Galaxy Quantum 5(A55)では、漢字を無限に繰り返して返答する問題があるようですね。 jmg008 26 일 전 | 親コメント | トピック: もしあなたがクロード・ブルーでつらいなら (kciter.so) GPT以降に市販された大規模言語モデルは、拡散モデルを使ったものをいくつか除けば、すべて次のトークンを予測する形式だと思っていたのですが、もし別の方式で動作するモデルがあれば教えていただけるとありがたいです vndk2234 26 일 전 | 親コメント | トピック: なぜスイスには25Gbpsのインターネットがあり、米国にはないのか (sschueller.github.io) 対称型25ギガLANが存在することすら知りませんでした。10ギガ級でも家庭では持て余すと思っていたのに…… ksundong 26 일 전 | 親コメント | トピック: rtk - LLMのトークン消費を60〜90%削減するCLIプロキシ (github.com/rtk-ai) 以前使ってみましたが、Claudeがrtkによる問題を解決するためにかえって多くのトークンを消費してしまうので、削除しました。 (例えば、curlでJSONリクエストを送ると無効なJSONを生成してjqがエラーを出し、それをClaudeがデバッグしながらトークンを溶かしたあげく、結局は生のcurlリクエストを再度受け取ってjqでパースするような状況です) それでも発想自体は良い試みだと思うので、安定化したら使ってみる価値はありそうです。 anyjava 26 일 전 | 親コメント | トピック: rtk - LLMのトークン消費を60〜90%削減するCLIプロキシ (github.com/rtk-ai) 私もその部分は残念に感じていました! 最近のアップデートで、full output を別ファイルとして残して、LLM が必要なら読めるようになりました〜 lastorder 26 일 전 | 親コメント | トピック: LaravelベースのGNUBoard 7オープンベータ公開 (sir.kr) 公式ホームページのリニューアルは、グヌーボード7のリリース前に行いました。 cronex 26 일 전 | 親コメント | トピック: あなたのエンジニアリングチームが遅い本当の理由は人ではなくコードベースだ (piechowski.io) だからこそ、新しく書き直したほうが速いケースが出てくることもあるんですよね。 geek12356 26 일 전 | 親コメント | トピック: Claude Codeのソース流出から生まれたOpenClaude — GPT-4o、Gemini、Ollamaなど200モデルをClaude Code UIで (github.com/Gitlawb) ご回答ありがとうございます! moon5g 26 일 전 | 親コメント | トピック: rtk - LLMのトークン消費を60〜90%削減するCLIプロキシ (github.com/rtk-ai) 本当に減るのかはよく分からない。agent に rtk ls.. コマンドを使うよう何度も案内したのに、使ってくれない kciter1 26 일 전 | 親コメント | トピック: もしあなたがクロード・ブルーでつらいなら (kciter.so) それでは、最新モデルは別なのでしょうか? もし内容に誤りがあれば教えていただけると、私を含めてほかの方々の参考にもなると思います(笑) nemorize 26 일 전 | 親コメント | トピック: EmDash – プラグインのセキュリティ問題を解決したWordPressの精神的後継 (blog.cloudflare.com) スパムっぽい文言を検索した検索結果URLを、他人のブログ記事に被リンクとして登録するタイプのスパムもありますね。 結局、どんなものでも手作業で消すしかないんですよね…。 brainer 26 일 전 | 親コメント | トピック: もしあなたがクロード・ブルーでつらいなら (kciter.so) > LLMは「与えられた入力に対して最も適切な出力を生成する」次単語予測モデルです。 GPT-3の話ですね。 コメントをさらに読み込む
結局のところAnalyticsの広告に見えます。もっともらしくはあるけど、結局は広告で、hada.ioの運営者さんもちょっと放置しすぎている気もします。
結局は品質とのトレードオフで、失われた品質を復元するためにかえってトークンをより多く使う構造になってしまうのではないか、という懸念もあります。
bm25 は韓国語検索に弱いため、別途、韓国語も適切に検索できるガードレールも適用してあります
大きな文脈では過去の対話の検索であり、整理まわりの課題さえうまく交通整理できれば良いアイデアだと思います。実際、私もプロジェクトの整理にとても役立ったと感じています。
私も実装してみました。複数のハードウェアを使っているときに Obsidian ボルトを GitHub バックアップと連携できるよう、少し追加しました。Codex、Gemini 用のパーサーも作って入れてあります。 https://github.com/hang-in/seCall
現代のLLMを「次の単語予測」と片付けるなら、AlphaGoも「次の一手予測」にすぎません。
ChatGPT以降、次の単語予測は単なるpre-trainedにすぎません。
憲裁は目標を達成するモデルです
聞くところによると、カーネル開発者たちは10〜20年近く前から PostgreSQL 開発者に対して「ユーザーランドでのスピンロックは推奨しないので、見直してほしい」と話していたそうです..
https://x.com/kosaki55tea/status/2040458791536497035
すでに Claude code agent team を使っているなら、特に目新しいものはありませんでした。
ただ、チーム構成情報などを新しいセッションでも引き継げるように、agents や skills を活用してインフラを構築できるのは便利でした。
手動でチームを構成すると、チーム向けのボイラープレートのようなものが繰り返し発生していたからです。
問題が1つあって、subagent と agent team の両方を考慮した環境であるため、Supervisor パターンでは、監督者がチームが生成済みであるにもかかわらず、subagent に作業を委任してしまう妙な状況がしばしば発生します。
https://github.com/google-ai-edge/gallery/issues/437
Exynosとの互換性があまり良くないようです。Galaxy Quantum 5(A55)では、漢字を無限に繰り返して返答する問題があるようですね。
GPT以降に市販された大規模言語モデルは、拡散モデルを使ったものをいくつか除けば、すべて次のトークンを予測する形式だと思っていたのですが、もし別の方式で動作するモデルがあれば教えていただけるとありがたいです
対称型25ギガLANが存在することすら知りませんでした。10ギガ級でも家庭では持て余すと思っていたのに……
以前使ってみましたが、Claudeがrtkによる問題を解決するためにかえって多くのトークンを消費してしまうので、削除しました。
(例えば、
curlでJSONリクエストを送ると無効なJSONを生成してjqがエラーを出し、それをClaudeがデバッグしながらトークンを溶かしたあげく、結局は生のcurlリクエストを再度受け取ってjqでパースするような状況です)それでも発想自体は良い試みだと思うので、安定化したら使ってみる価値はありそうです。
私もその部分は残念に感じていました!
最近のアップデートで、full output を別ファイルとして残して、LLM が必要なら読めるようになりました〜
公式ホームページのリニューアルは、グヌーボード7のリリース前に行いました。
だからこそ、新しく書き直したほうが速いケースが出てくることもあるんですよね。
ご回答ありがとうございます!
本当に減るのかはよく分からない。agent に
rtk ls..コマンドを使うよう何度も案内したのに、使ってくれないそれでは、最新モデルは別なのでしょうか? もし内容に誤りがあれば教えていただけると、私を含めてほかの方々の参考にもなると思います(笑)
スパムっぽい文言を検索した検索結果URLを、他人のブログ記事に被リンクとして登録するタイプのスパムもありますね。
結局、どんなものでも手作業で消すしかないんですよね…。
> LLMは「与えられた入力に対して最も適切な出力を生成する」次単語予測モデルです。
GPT-3の話ですね。