- 大規模言語モデル(LLM) は業務の進め方を根本的に変えており、Oxideはこれを組織内でどのように使うかを明確に定義している
- Oxide はオンプレミスデータセンター向けに統合ハードウェアおよびソフトウェアを構築するオンデマンドコンピューティングインフラのスタートアップ
- LLM活用の中核原則として責任、厳密さ、共感、チームワーク、緊急性のバランスを提示
- 文書の要約・理解、コードレビュー、デバッグなどに有用である一方、執筆やコーディングには人間の判断と責任が必須
- LLMが生成した成果物は常に人間がレビューし責任を負う構造で維持すべき
- OxideはLLM利用を推奨するが、製品・顧客・同僚に対する責任感を前提としている
LLM活用の価値基準
- OxideはLLM利用を組織のコアバリューに照らして評価する
- 責任(Responsibility):LLMはあくまでツールであり、成果物の責任は全て人間にある
- 厳密さ(Rigor):慎重に使えば思考を精緻化できるが、だらだら使うと思考の質が低下する
- 共感(Empathy):言語の受け手と書き手の双方が人間であることを認識し、人間中心のコミュニケーションを維持することが必要
- チームワーク(Teamwork):LLM利用が同僚同士の信頼を損なわないよう注意し、利用している事実を公開しても責任回避に見えないようにする
- 緊急性(Urgency):速度向上が可能であっても、他の価値を犠牲にしてはならない
LLMのさまざまな活用方法
読者としてのLLM
- LLMは文書要約と質問応答に非常に優れており、大量の資料を短時間で理解できる
- ただしデータプライバシーを確保する必要があり、アップロードした文書がモデル学習に使われないよう設定する必要がある
- 文書理解補助ツールとしては有用だが、自分で読むべき場面を代替してはいけない
編集者としてのLLM
- 完成した文書の構成・文体の改善に効果的で、後半工程で活用すると有用
- しかしLLMは過度にポジティブな反応を示す傾向があり、批判的分析が不足することがある
- 下書き段階で使うと、作成者の独自の声を失うリスクがある
ライターとしてのLLM
- LLMが生成した文章は、陳腐で自動生成の痕跡が明確な場合が多い
- 自動生成された文章は、思考の誠実さと読者の信頼を損なう可能性がある
- 読者は作成者が内容を理解していることを前提としているが、LLMの文章はその前提を崩す
- Oxideは、メンバー全員がライティング能力を持っていることを前提に、LLMをライティング主体として使わない
- ただし、アイデア整理や補助ツールとしては限定的に活用可能
コードレビュアーとしてのLLM
- LLMは特定の種類のコード問題の検出に有用だが、人間のレビューを代替できない
- 提案が非論理的だったり文脈を見落とす可能性があるため、補助的なツールとしてのみ使用
デバッガーとしてのLLM
- LLMはデバッグのアイデアを引き出す「ラバーダック」役割として使える
- 実際の問題解決能力は限定的だが、新しいアプローチを思いつくきっかけとして有用
プログラマーとしてのLLM
- LLMはコード生成能力が非常に高く、実験的・補助的なコーディングに適している
- 製品コードに近づくほど検証と責任が重要になる
- LLMが作成したコードは**作成者自身が直接レビュー(self-review)**を行う必要があり、同僚レビュー前に必ず確認が必要
- コードレビュー中に全面再生成で対応する行為は禁じられており、反復レビューが不可能になる
- コード生成時にも責任、厳密さ、共感、チームワークを維持する必要がある
運用とガイドライン
- LLM利用の技術的な詳細と社内ガイドラインはGitHubの内部文書に整理されている
- OxideはLLM利用を推奨するが、責任ある活用を前提としている
- 製品品質、顧客への信頼、同僚間の協力に対する責任意識を最優先にしている
1件のコメント
Hacker Newsの意見
Bryanの記事はバランスが取れていて現実的な視点を示している
Oxideはジュニアエンジニアを採用していないため、RFDにその観点が抜けていたのだと思う
Bryanは30年以上にわたり難しいソフトウェアとハードウェアを扱ってきたエンジニアで、"本当に難しいプログラム(OS)"を完成させた経験がある
彼のLLMの扱い方は、2025年のジュニアエンジニアとは大きく異なる
今どきのジュニアは、LLMの助けなしにコーディングした経験がほとんどないのではないかと思う
あまりに退屈で出社するのもつらかったが、今ならLLMで数分で終わる気がする
当時つぎ込んだ時間は、今思うとほとんど狂気じみている
その後でようやくDreamweaverが紹介され、生産性は10倍くらい上がった
セキュリティ研究のように結果が明確な分野ではLLMは優秀だが、微妙な判断が必要な問題には弱い
だから反復的で体系的な部分はLLMに任せ、判断が必要な部分は人間が担うのが理想的だ
だが今では、これが**「新しいプログラミングのやり方」**なのだと受け入れており、そう認識するとむしろ若返ったような気分になった
最近はem-dashを使うとAIが書いた文章だと誤解されるのが少し腹立たしい
OxideのRFDを読んで大半にはうなずいたが、「LLMは最初からコードをうまく書ける」という部分には同意しない
LLMは**「白紙恐怖症」**を解決するのには向いているが、実際にデプロイするコードはその出力物とはかなり隔たりがあると思う
これは「進歩しているという錯覚」なのかもしれない
LLMはデータセットに多く現れる**「良い解決策」を学習しているため、問題解決には強い
一方で人間の表現は多様性が本質なので、平均的な表現は面白みを失う
結局、LLMは未解決問題を解く能力を制限する可能性もある
コード品質が低い理由はcontext windowの限界**にあると見ている
関数単位の生成は悪くないが、機能全体を任せると構造やインターフェースがめちゃくちゃになる
文章にたとえるなら、段落の最初の文と最後の文だけ与えて残りを埋めさせるくらいがちょうどいい
プログラマーはコードの品質を判断できるが、文章についてはそうではない
古いモデルや廉価なモデルを使って悪い印象を持っている場合が多い
「LLMはLLMが書いた文章をうまく見分けられる」という主張には疑問がある
データで示されているのか気になる
同社の採用プロセスは文章重視であるため、最近はLLMで作成された応募書類が急増しているという
RFD 0003と採用ページでも注意を促しているが、それでも発生し続けている
ポッドキャストのエピソードでも関連事例が扱われている
LLMがあらゆるAI文章を見抜けるわけではないが、疑わしいケースを検知する補助ツールとしては有用だという
実験はしていないが、興味深いアプローチだ
現在の技術では完全な判別は不可能だと思う
LLMが書いたコードを使う際の責任はエンジニアにある
自分でレビューしていないコードはレビュー対象にしてはならない
私の手順は次の通りだ:
最後の段階がいちばん難しく、感情的には飛ばしたくなる
このやり方はアーキテクチャレベルの思考を保ちながら、反復作業を減らしてくれる
ただしLLMは非決定的なので、コンパイラのように予測可能な道具とは異なる
コードが正しく動かなければ、さらに多くの修正が必要になる
そのため、LLMが本当に時間を節約しているのか確信が持てない
機械が作ったコードを磨き上げる作業には、感情的に没入しにくい
LLMが生成したコードの著作権侵害の可能性に触れていないのは不思議だ
GitHub上のコードがそのまま複製される可能性もあり、これはオープンソース企業にとって重要な問題だ
著作権が成立するには十分な人間の寄与が必要だが、その基準が不明確だ
文書はよくできているが、「LLMを読解補助に使うのは問題ない」という部分は矛盾しているように感じる
完璧なら原文と変わらないし、完璧でないなら誤読のリスクがある
実際、LLMが文書をちゃんと読まず、目次だけ見て推論している場面をよく目にする
コンテンツと読者の間に翻訳レイヤーが生まれる危険がある
テキスト全体を直接context windowに入れるべきだ
ただし3冊分まるごとではLLMの限界を超える分量かもしれない
「LLMが書いた文章は思考の真正性まで損なう」という意見に共感する
人間が直接書いた文章には価値があるが、LLMが書いた文章は価値が薄められた複製物のように感じる
いっそプロンプトを読んだほうがましだ、という言葉が印象に残った
面白く独創的な発想は平均から外れた場所にある
翻訳のように、非ネイティブ話者が自分の考えをよりよく表現するためにLLMを使うのは理解できるが、
受け手はその表現が本当にその個人の考えなのか疑うようになる
コメントはコードに書かれていない理論的文脈を表現しようとする試みだ
LLMはこのような「理論」を持ちえないため、本当に価値あるコメントは作れない
たとえば/r/SaaSの投稿の大半はLLMが書いたように見えたが、
感情的なストーリーテリングによって読者の反応をうまく引き出していた
私自身も文書やベンチマークの作成にはLLMを活用している
非ネイティブ話者が技術文書を書く際にも役立つが、品質のばらつきは大きい
結局、情報伝達のための文章ではLLMがますます有用になっている
何が書かれたかではなく、なぜそれが書かれたのかが知りたい
だから自分の考えが独創的でないとしても、統計的にはまれなのだと思うと少し慰められる
LLMで書かれた文章は読む価値がないと思う
Oxideがコード以外の成果物にはLLMを使わないという断固たる原則を定めたのはよいことだ
コードレビューでも同様に、生成コードはまず作成者自身が確認すべきだ
こうした文化が本当に維持されるかは見守る必要があるが、方向性としては賢明だ
LLMは盗用されたデータで学習されたという認識が強く、
そのような世間の認識を考慮すべきだったと思う
倫理的問題であれブランドリスクであれ、今は明らかに重要な要素だ
倫理的立場を示すよりも、技術的ガイドラインを提示することが目的だ
LLMが書いた文章は真正性を失い、読者はその思考までも自動化されたもののように感じる
結局、相互の信頼を損なうことになりうる
「書くことは読むことよりも大きな知的労働だ」という言葉は興味深い
ただ、コードについては逆だと感じる
だから粗悪なコードのほうがずっと多い
一方で、よく書かれたコードには学ぶ価値が大きく、文章のように洞察が必要だ
「デバッグはコードを書くことの2倍難しい。
したがって、書く時点で最大限に賢く振る舞うと、デバッグは不可能になる」
laws-of-software.com リンク