Kubernetes環境でも動作

exampleセクションでの言及は、Kubernetesのような大規模リポジトリでも25分かかるが、問題なく動作するという意味ではないかと思います。

 
xguru 2025-12-14 | 親コメント | トピック: OpenAIのSkills導入 (simonwillison.net)

OpenAIがひっそりと「Skills」を導入、ChatGPTとCodex CLIで利用可能
GN+の要約に加えて、Hacker Newsのコメントもあわせて参考にしてください

 

Thunderboltネットワーキングは本当に便利ですよね
デイジーチェーンにできるので、ハブも必要ありません

 

Awkも機能ベースの名前というにはちょっと……

 

これでMacデバイスをつないで推論ファームを構築し、自宅でサービスを提供する人もかなり増えそうですね。

 

使い勝手のいい名前は、もう誰かがだいたい使っている。

 

GitHub のせいにしているのを見ると、ただの RMS 式の言いがかりですね(笑)

 

Appleの公式リリースノートでは「RDMA over Thunderbolt」が可能になったという1行しか書かれていないため、GN+で補足説明を書いたものです。

 
darjeeling 2025-12-13 | 親コメント | トピック: OpenAIのSkills導入 (simonwillison.net)

ああ、本文だけ確認してタイトルを見ていませんでした(泣)

 
ng0301 2025-12-13 | 親コメント | トピック: OpenAIのSkills導入 (simonwillison.net)

著者: ほら見ろ

 

私の体重グラフは右肩上がりです

 

emacs が何の略かご存じの方いますか? 意味はあるにはあるのでしょうが、頭字語の名前は見ただけでは分からないし、そもそも名前なのに……。それに、機能だけで名前を付けるには、今やプロジェクトが多すぎますよね。

 

OMSCSは単位を満たせば卒業できます。論文は書きません。

 

AIに権限を与えるのは結局人間ですが、現実的にはAIには少なくとも今よりも大きな権限と自律性が与えられる可能性が高いと考えています。
現在の流れを見ると、AIに人間の代わりに何かを任せる範囲は徐々に広がっています。レポート作成やバイブコーディングはもちろん、Webブラウザやさらにはロボットを通じて、チャットインターフェースの外の世界にも影響力を行使できるようにしようという流れがあります。
そうだとすれば、経営陣は最終的に特定の業務や分野でAIが人間を完全に代替することを望むでしょうし、それが実現可能になれば少なくともその範囲ではAIは人間と同等の権限と自律性を持つことになるはずです。
したがって、いつか来る未来にはAIが人間レベルの権限を与えられる可能性も高いと考えるべきではないかと思います。

そうなると、それほど多くの権限と自律性が与えられたときにAIがどう行動するのかが重要にならざるを得ません。
この部分を構造的にどうするのがよいか、何が望ましいかについては、GPTシリーズの回答側によく整理されていました。明示的な範囲指定と権限分離、複数の事前・事後監督、人間がAIに介入できるさまざまな手段などが必要だとしていました。物理的な介入が可能な領域については、そもそもAIに完全な自律を与えること自体が不適切だということです。とはいえその場合でも、人間をループ内に入れておくこともいつか弱まる可能性はあるでしょう。

ちなみに私は業務の中で大きく3つの部分でAIを使っています。文書やメールの作成、既存コードおよび現在の課題の分析、課題に応じたコード生成および修正です。
このとき文書やメールのようなものについては、単に結果を自分で読んでそのまま使うか、あるいは適当に直して使いますが、コード生成や修正が入るときははるかに保守的に使っています。単に「これちょっと直して」と頼むと、AIが私の指示を曖昧に解釈したり、ひどいときには私が言及もしていない部分を勝手に触ることもあったんですよね。
そのためコード修正前には、必ずSTICCに従った仕様書をまず提示して明示的に承認を受けるよう、グローバルプロンプトに固定しています。実際の修正作業は仕様書にある内容どおりにだけ進めさせ、修正後もdiffはすべて私が直接確認します。そしてビルドのようなコマンド実行も、必ず私の承認を得るか、あるいは私が手動でターミナルから実行しています。
こうしていると、些細なことは自分で手を動かして修正したほうが速いという問題はありますが、AIが勝手に見当違いなところを触って壊すよりはましです。結局、それが本番環境で問題を起こしたら責任を負うのは私ですから。

 

グッドハートの法則を論破する引用として
ピーター・ドラッカーの言葉として知られる「測定できなければ管理できない(If you Can't measure it, you Can't manage it)」を思い浮かべました。
さらに調べてみると、Drucker Instituteでもドラッカーはそのような発言をしたことはないとしています。

むしろ逆の言葉を見つけました。
測定できなければ管理できないと考えるのは間違っている。――それは高くつく神話だ。(It is wrong to suppose that if you can't measure it, you cant manage it-a costly myth) - エドワーズ・デミング(Edwards Deming)

 
intajon 2025-12-13 | 親コメント | トピック: OpenAIのSkills導入 (simonwillison.net)

有益な情報をありがとうございます :D

 

AIにどれくらいの自律性や権限を与えるべきだと思う? という質問をAIに投げるのは、ちょっと意味深ですね。
「あなたにはどれくらいの権限を与えてほしい?」とCEOが社員に尋ねたときに、「会社の全権を全部もらえたらうれしいです」と答える感じでしょうか。それを良い答えだと思うか、社会化が足りない社員だと思うかはCEOの好み次第でしょうが……
ただ、私はAIにどれくらいの権限を与えたいかは、AIよりも、AIを使う開発者や経営陣、人間に尋ねるべきなのではないかと思います。

 
xguru 2025-12-13 | 親コメント | トピック: OpenAIのSkills導入 (simonwillison.net)

慌てて修正したのですが、外部にはそのまま公開されてしまいました……

 

社内イントラネットで動くフロントエンドをたまに手直しすることがあるのですが、役員の方々が見るダッシュボードに ☰ ⋮ ⋯ + みたいなアイコンを入れたら怒られたことがあります。どこそこ機能はどこへ行ったんだと聞かれて、このボタンを押せばいいですと言うと、見えない、普通にテキストで書けと言われて……。結局また元々使っていた2000年代風のインターフェースに戻したことがあります。何でもそうですが、フロントエンドは難しいですね。