あまりにも優秀で怖いです。これ以上依存するようになるのは良くない気がしますが……競争相手が必要です。

 

すごいすごいと思っていたら、さらにすごいAnthropicです。
他の会社にもかなり大きな刺激を与えている気がします。

 

最近ちょうど似たようなことを考えていて、昨日、認知負債に関するブログ記事を1本書いたのですが、みんな似たような悩みを抱えているみたいですね。

 

面白いですね。今後の発展計画はありますか?

 
roxie 2026-03-02 | 親コメント | トピック: Call-me - Claude Codeが電話で連絡してくる (github.com/ZeframLou)

わあ、www

 

そうですね……ビジョンエンコーダーが使われると、1BモデルでもVRAMを9GB食いますね

 
holywork 2026-03-02 | 親コメント | トピック: 全部茶番だった (garymarcus.substack.com)

サム・アルトマンはソシオパスの爬虫類なんじゃないかと思います。

 

「手で物理的なものを作る行為が内面的な変容をもたらす」

 

RTX Pro 6000(96GB、実質的には94GB)を所有していますが、ollamaで122Bモデルが立ち上がりません。ビジョンモデルなので、ビジョントランスフォーマーが入っている部分のせいかもしれません。GPT OSS 120bモデルは余裕で動くのですが。

 

CUDAベースの llama.cpp サーバーで動かさないと性能が出ません。

 

ありがとうございます。PCをつけておくだけでサーバーの役割までしてくれるcoworkが出てきて怖かったのですが、少し安心しましたし、これからどう変わっていくのか頭の中でイメージできました(笑)

 

Xで話題になっていましたが、Dockerで使う場合は Docker デーモンの PID を強制的に渡せば、それでも動くそうです。

https://github.com/vercel-labs/portless/issues/61

 

役に立つ記事ですね

 

これで EADDRINUSE エラーともおさらばですかね?
最近はエージェント経由であれこれ開発してると、いろいろ立ち上がって勝手にぶつかって大騒ぎなんですよね(笑)

 

でも、モデル自体が数カ月で変わってしまうし、
モデルに合わせて agents を修正しなければならないのに……。
適切な agents の構造を作る時間より、モデルの変化のほうが速いのではないでしょうか。
人がツールに慣れる前に、そのツールのほうが変わってしまうわけですから……

 

私は完全に非開発者なのですが……AIをいじる楽しさで少しコーディングをさせてみたら、頼んでもいないのにテストコードを大量に作って保存していて、こういう理由があったんですね。
これ、いったいなぜ必要なのかと聞いたら、自分がコードを作るときに必要だから消さないでくれと言っていました。

 

Gemini も塞がれました。Claude も塞がれましたね。
でも API にお金を払って使うなら問題ないでしょう。

OAuth でサードパーティー側から認証して、安い購読料金で格安に使うのが問題にならないはずだという海外の人たちの発想は理解できません。

 

おお…その通りな気がします。

 

人間もランダムに選ぶのは得意ではありません。パターンがあってはいけないのに、パターンを意図的に避けること自体もパターンと見なせるからです。

 

実際のトークン使用量を単一の作業について測定した結果はなく、単に magpie を使えば再試行がこの程度減るだろうという推測ですね。