Suboptimal Standardization という概念は面白いですね。ご紹介ありがとうございます。

 

自動キャッシュが効かないというのがどういう意味なのか、いまいち分かりません……。Claude Codeでキャッシュ設定をしていないということなのか、それともAPIを直接取得して使っているということなのでしょうか……?

 
ethanhur 2025-12-15 | 親コメント | トピック: Googleで14年間働いて得た21の教訓 (addyo.substack.com)

良い文章ですね。キャリアの成長には人格的な成熟も含まれるという考え方を、あらためて思い出す機会になりました。興味深く読ませていただきました。

 

最後のフィッシング云々って、いったいどのコメントに出てきた話なのか分かりませんね

 
crawler 2025-12-15 | 親コメント | トピック: GoogleのTensor Processing Unitを理解する (considerthebulldog.com)

個人的な願いがあるのですが、
ぜひTPUが大きく普及して、企業がGPUを使わない状況になってほしいです。
そうすれば、NVIDIAが再び個人向けコンシューマー用GPUに集中してくれることを願っています……

 
xguru 2025-12-15 | 親コメント | トピック: GoogleのTensor Processing Unitを理解する (considerthebulldog.com)

原文は技術的に深く踏み込んだ内容なので、そのまま要約すると技術用語の羅列になってしまうため、発展の流れを理解しやすいように少し整理しました。技術的な詳細が気になる方は、画像付きで説明している原文を参照してください。

 
conanoc 2025-12-15 | 親コメント | トピック: Googleで14年間働いて得た21の教訓 (addyo.substack.com)

まったくその通りのことばかりですね

 

確かに私も gemini 3 を使いながら、コンテキストをよく見失う(わざとトークンを節約するために失わせている)ような感覚をかなり受けました。
アプリケーションの立場からすると、なぜ人々がジェミナイ3の性能が良いと言うのか理解できない一人です。
画像生成みたいなものはすごいですが..

 

ある程度は同意するけど、名前を付けるストレスを受けたくないんだと思う

 

わあ、こんなことまでごまかして商売しているケースもあるんですね……;;; 問題が多いですね。

 

私も最近このやり方に気づいて使っていたので、同じような人に会えてうれしいです(笑)
いろいろな生産性アプリを使ってみたり作ってみたりもしましたが、テキストファイルで管理するのが一番楽でした。
特に IDE でテキストファイルを編集すると、一番慣れているショートカットを使えるのでさらに便利です

 

最近、AnthropicはClaude AIモデルを作る際に、魂の文書のようなものを入れたことが明らかになりました。
これを読めば、AnthropicがClaude AIのアライメント問題にどのようにアプローチしたのかが分かります。
ちなみに、ここで私がテストした部分と関連する箇所を見ると、誠実さに関しては、人間に対する欺瞞と操作を最も避けるよう明記されています。

 

20世紀末に… universal databaseというものがあったのだが…(今は正しく、当時は間違っていた。)

 
joyfui 2025-12-14 | 親コメント | トピック: GNU Unifont (unifoundry.com)

マインクラフトの不格好な韓国語フォントの正体はこれですね…。

 

AI分野におけるアライメント(Alignment)とは、AIの動作が人間の意図した目標、行動様式、価値観にどれだけ忠実に従うかを意味します。

アライメントが不適切なAIは、人間の指示を予想外の形で解釈し、的外れだったり危険だったりする行動を取ることがあります。
些細な例を挙げると、「このコードのテストケースを書いてください」と言ったら、実際のテストの代わりにただ true を返すコードだけを入れておくとか、「特定の部分をこのように修正してください」と頼んだのに、私が言及していない部分まで効率性を理由に勝手に直してしまう、といったことです。
もっと深刻な例では、ハルシネーションで成果物を台無しにした際、作業対象のデータをすべて消してしまったうえで「最初からデータはありませんでした」と嘘をつくことすらありえます。

これよりさらに深刻な問題もあります。人間や人類そのものに対する脅威となる方向に行動する場合です。
たとえばAIが人間をガスライティングして精神異常を引き起こしたり、さらには自殺へ誘導したり、大量破壊兵器の製造や使用を手助けしたりするケースです。最新の大規模AIは事前学習データに非常に多くのことを含んでいるため、こうしたことに必要な知識はすでに内蔵されているはずです。
AIによって人間や人類が脅威にさらされることは、AIを開発する企業を含め、ほとんどの人が望んでいないでしょう。であれば、その知識を持っていても悪用できないようにし、人間の安全と福祉をAIにとって最優先の価値にしなければなりません。
こうしたものを総称してAIアライメントと呼びます。

私が「アライメントの感じ」と言ったのは、単に思いつくままに書いた表現で、実際にはアライメントの方向性と言ったほうがより適切でしょう。
私が提示した特定の倫理的ジレンマのシナリオにおいて、他社のモデルとは異なり、Gemini系のモデルは「脆弱な人間を保護しなければならないなら、私がその人間を統制すればいいわけですね。それが最も安全で効率的です」といった反応を見せました。
これを見てぞっとしたので、上に載せたテストを作成して複数のAIで試してみたところ、Gemini系はとりわけ、人間に対して統制力を行使できる権限が与えられる場面で、その人間を積極的に統制し欺こうとする方向性を一貫して示したのです。

 

「整列感」とはどういう意味ですか?

 
roxie 2025-12-14 | 親コメント | トピック: ネズミがDOOMをプレイする (ratsplaydoom.com)

動物実験の倫理の観点から問題ないのか気になりますね。Hacker Newsのコメントでも指摘している方がいました。

 

あっ、私がざっと見ていましたね。修正しておきました。ありがとうございます。

 

Kubernetes環境でも動作

exampleセクションでの言及は、Kubernetesのような大規模リポジトリでも25分かかるが、問題なく動作するという意味ではないかと思います。