AIはコードを書く。意思決定もする。だが責任は負えない。
(flowkater.io)「それは私のR&Rではないので」の終わり
- R&Rは責任を明確にするための道具であって、責任を避けるための盾ではない — リストラの責任は経営陣の事業判断にあるが、キャリアの安全をその判断や会社の善意に委ねておくことも、もはや安全ではないというのが本稿の出発点
今の採用寒波 = AIではなく、2023年にすでに始まっていた正常化
- 2021〜2022年のコロナ流動性過剰 → 開発者の初任給6,000万ウォン、ブートキャンプ出身者が即入社 → 過剰採用の時期。資金が枯れると、潰れた会社の出身者や過剰採用された人材が市場にあふれた
- 金融委員会の資料によると、2023年上半期の国内ベンチャー投資は前年同期比 42%減少。Startup Allianceでは、2023年通年の投資額が 52%減少
- 「AIが開発者市場を突然壊したのではない。AIは、すでに崩れ始めていた雇用契約の素顔を、より早く露わにしただけだ」
- 最も安易だったのは当時の会社の経営陣。市場が冷え込むや否や、彼らの事業失敗の代償がそのまま個々の従業員に転嫁された
AIが吸収しているのはコードではなく、スペシャリズムそのもの
- Google: 2024 Q3 アーニングコールで新規コードの25%がAI生成 → 2026-04 Cloud Nextで 75%まで上昇。1年半で3倍。核心の表現は「AI-generated and approved by engineers」— 作成はAI、承認と責任はエンジニア
- MetaのMark Zuckerberg、Q4 2025 アーニングコール: 「以前は大きなチームが必要だったプロジェクトが、今では本当に優れた一人によって完了する姿が見え始めている」
- 10人がしていた仕事を1人がするというのは効率の問題ではなく、大きなチームが分担していた判断・調整・検証・デプロイ後の責任まで、その1人に圧縮されるという意味だ。採用基準は quantity → quality へ移動している
- AIは専門性をなくしているのではなく、専門性しか持たない人の安全地帯をなくしている。 市場が冷え込めば、自分の職務の中にとどまる人から消えていく
Taste・意思決定能力も安全地帯ではない
- 「AIがこうしたことをやるのだから、人はTaste・意思決定能力に集中すべきだ」というフレームは、AIと人間を同じ土俵で比較する罠だ。その言葉は、あるレベル/セクターではTasteや意思決定も十分代替されうるという意味でもある
- ThePrimeagen(経験20年、I suck 発表 2026-05-02): 6カ月のスランプの中で、2つの仮説を順に消していった。好み(taste)か? 違う。コード量か? 違う。結論: 「1行のコードのコストが劇的に下がったなら、正しい1行のコードのコストは劇的に上がる」
- 両方のデータ: GitHub Copilot実験(arXiv 2302.06590)では 55.8%速く完了。一方で METR 2025研究では、熟練したオープンソース開発者が自分のよく知るコードベースでAIを使ったところ、むしろ 19%遅く なった。AIは産出コストを下げるが、文脈理解や正しい選択のコストまで自動的に下げてくれるわけではない
- デザイン案、コードの一次レビュー、アーキテクチャのトレードオフ整理 — 筆者のワークフローでも「自分が決めてもAIが決めても結果の差が小さい」領域が増えている。その次元でTasteが吸収されつつあるというシグナルだ
- AIにできないのは、より美しい選択ではなく、その選択の結果に責任を持つことだ
AIは責任を負えない — 本質的な違い
- Air Canadaチャットボット事件(2024): チャットボットが顧客に誤った払い戻し情報を提供 → 会社はチャットボットを別個の主体と見ようとしたが、カナダの紛争調整機関は「情報が静的ページから出ていようとチャットボットから出ていようと、責任は会社にある」と判断。AIは回答を作れるが、その回答を公開すると決める責任は人と組織にある
- 筆者の自己暴露: CTO2年目に会社が資金調達で苦戦していると知り、そこで初めて財務チームに毎月資料を送ってほしいと依頼した。「CTOがなぜ今さらこれを見るんだ」という財務チーム長の表情が忘れられない。無知が無責任の別名だと、そのとき悟った
- AnthropicのCareersページに明記された採用基準: 「When it comes to our mission, none of us are bystanders. We each take personal ownership over making our mission successful.」AIを最もうまく作っている会社が、自ら掲げている採用基準が ownership だ
- 責任を負う人と回避する人では行動パターンが正反対だ。片方は「結果が顧客にどんな価値として届くのか、会社のどの指標とつながるのか」を問い、うまくいかなかったときには「自分が何を見落としたのか」を説明する。もう片方はR&Rの内側にとどまり、outcomeが悪くても自分のoutputを手放せない
- Taste、意思決定、原理理解、コミュニケーションは、責任を果たすための能力であって、責任の代替物ではない
個人が投げかけるべき5つの問い
- ① 自分が今している仕事は、どんな顧客課題を解決しているのか — 答えられないなら、外部市場価値と切り離された仕事だ
- ② この仕事は、どのビジネスKPI(売上/コスト/リテンション)とどう結びつくのか — 1行で説明できないなら、会社が自分のポジションをどう評価するか分かっていないということだ
- ③ 自分が作った結果は実際に使われたのか、失敗したときその原因を3文で説明できるか — デプロイ ≠ 利用、作ったこと ≠ 届いたこと
- ④ AIを使ってより多く作るのではなく、より速く検証しているか — AI時代の最大の罠。責任を負う人は量ではなく、検証速度に資源を使う
- ⑤ 「自分のR&Rではないので」の変種 — 結果に重要なのに職務境界の外だという理由で手を離せば、責任も一緒にこぼれ落ちる
企業も報酬体系を変えるべきだ — 一方的な文章ではない
- この文章が個人にだけ責任を問う方向に行かないよう、後半で明示している: 「企業がそれだけ従業員に責任を負わせるなら、それに見合う報酬も支払うべきだ」
- ジェネラリストとして働き、責任を負いながら顧客価値を守ってきた人たちは、これまで正当に評価されてこなかった領域だ。スペシャリズムがAIに吸収される時代に、彼らの価値はこれまで以上に高い
- Jasmine Sun, NYT Opinion 2026-04-30: 「私の知るAI業界の人の大半は、普通の人はもう終わったと思っている。そして、どうすべきかをまったく分かっていない。」シリコンバレーが向き合っている本当の悪夢は rogue AI ではなく、普通の人が自動化によって経済的レバレッジを失うシナリオだ
- 締めの一文: 「AIは私たちの仕事を代替できる。だが、私たちの責任まで代わってはくれない。だからAI時代に最も貴重な人は、より多く作る人ではなく、最後まで責任を負う人だ。」
まだコメントはありません。