結局のところAnalyticsの広告に見えます。もっともらしくはあるけど、結局は広告で、hada.ioの運営者さんもちょっと放置しすぎている気もします。

 

結局は品質とのトレードオフで、失われた品質を復元するためにかえってトークンをより多く使う構造になってしまうのではないか、という懸念もあります。

 

bm25 は韓国語検索に弱いため、別途、韓国語も適切に検索できるガードレールも適用してあります

 

大きな文脈では過去の対話の検索であり、整理まわりの課題さえうまく交通整理できれば良いアイデアだと思います。実際、私もプロジェクトの整理にとても役立ったと感じています。

 

私も実装してみました。複数のハードウェアを使っているときに Obsidian ボルトを GitHub バックアップと連携できるよう、少し追加しました。Codex、Gemini 用のパーサーも作って入れてあります。 https://github.com/hang-in/seCall

 

現代のLLMを「次の単語予測」と片付けるなら、AlphaGoも「次の一手予測」にすぎません。

ChatGPT以降、次の単語予測は単なるpre-trainedにすぎません。

憲裁は目標を達成するモデルです

 

聞くところによると、カーネル開発者たちは10〜20年近く前から PostgreSQL 開発者に対して「ユーザーランドでのスピンロックは推奨しないので、見直してほしい」と話していたそうです..

https://x.com/kosaki55tea/status/2040458791536497035

 

すでに Claude code agent team を使っているなら、特に目新しいものはありませんでした。
ただ、チーム構成情報などを新しいセッションでも引き継げるように、agents や skills を活用してインフラを構築できるのは便利でした。
手動でチームを構成すると、チーム向けのボイラープレートのようなものが繰り返し発生していたからです。

問題が1つあって、subagent と agent team の両方を考慮した環境であるため、Supervisor パターンでは、監督者がチームが生成済みであるにもかかわらず、subagent に作業を委任してしまう妙な状況がしばしば発生します。

 

https://github.com/google-ai-edge/gallery/issues/437

Exynosとの互換性があまり良くないようです。Galaxy Quantum 5(A55)では、漢字を無限に繰り返して返答する問題があるようですね。

 

GPT以降に市販された大規模言語モデルは、拡散モデルを使ったものをいくつか除けば、すべて次のトークンを予測する形式だと思っていたのですが、もし別の方式で動作するモデルがあれば教えていただけるとありがたいです

 

対称型25ギガLANが存在することすら知りませんでした。10ギガ級でも家庭では持て余すと思っていたのに……

 

以前使ってみましたが、Claudeがrtkによる問題を解決するためにかえって多くのトークンを消費してしまうので、削除しました。
(例えば、curlでJSONリクエストを送ると無効なJSONを生成してjqがエラーを出し、それをClaudeがデバッグしながらトークンを溶かしたあげく、結局は生のcurlリクエストを再度受け取ってjqでパースするような状況です)
それでも発想自体は良い試みだと思うので、安定化したら使ってみる価値はありそうです。

 

私もその部分は残念に感じていました!

最近のアップデートで、full output を別ファイルとして残して、LLM が必要なら読めるようになりました〜

 

公式ホームページのリニューアルは、グヌーボード7のリリース前に行いました。

 

だからこそ、新しく書き直したほうが速いケースが出てくることもあるんですよね。

 

本当に減るのかはよく分からない。agent に rtk ls.. コマンドを使うよう何度も案内したのに、使ってくれない

 

それでは、最新モデルは別なのでしょうか? もし内容に誤りがあれば教えていただけると、私を含めてほかの方々の参考にもなると思います(笑)

 

スパムっぽい文言を検索した検索結果URLを、他人のブログ記事に被リンクとして登録するタイプのスパムもありますね。
結局、どんなものでも手作業で消すしかないんですよね…。

 

> LLMは「与えられた入力に対して最も適切な出力を生成する」次単語予測モデルです。

GPT-3の話ですね。