あらゆるものの未来は嘘なのか:仕事
(aphyr.com)- AI自動化とLLMベースの労働が広がるにつれ、技術発展がむしろ熟練の低下と富の集中を招くリスクが高まっている
- プログラミングと創作活動は徐々に、プロンプトを扱う**「魔術師型の労働」へと変わり、一部の開発者は不安定なLLMエコシステムの中で呪文書(spellbook)** を蓄積しながら働くようになる可能性がある
- AI従業員を雇う企業は、実際には一貫性がなく嘘をつく同僚を迎え入れるようなものであり、責任は結局人間に帰属する
- 自動化が進むほど、監視疲れと技術の退化、危機対応力の低下が深刻化し、人間の介入能力が弱まる**「自動化のアイロニー」**が露わになる
- 結果としてAIは労働構造と資本分配を再編するが、現在の傾向は富の集中と人間能力の弱体化につながっており、社会的な緩衝装置と速度調整が必要である
仕事の未来と嘘の時代
- AIの同僚と自動化への期待は現実と乖離している
- 自動化はシステムの堅牢性を下げ、デスキリング(deskilling)、自動化バイアス、監視疲れ、引き継ぎリスクを引き起こしうる
- 機械学習が労働を代替する場合、富の集中が大手テック企業へさらに進む可能性がある
プログラミングは魔法のような行為に変わるのか
- 過去に自然言語でプログラムを書こうとする試みは、言語の曖昧さのために失敗したが、最近のLLMは曖昧な指示だけでも複雑なコードを生成できるようになった
- 一部のエンジニアは、LLMがコードの大半を書くようになり、人間はそれを管理する段階に達したと評価している
- しかしLLMは意味を保つ能力に欠け、同じ指示でも文の順序や反復によってまったく異なる結果を出すことがある
- 正確さが重要な領域では、依然として人間によるコードレビューが必要である
- 将来は一部の開発者が、「魔女(witch)」のように呪文(prompt) を通じてLLMを扱う形で働く可能性がある
- 彼らは**「呪文書(spellbook)」**のようなプロンプト技術を蓄積し、不安定ではあるが有用なLLMベースのソフトウェアエコシステムが周辺部で繁栄するかもしれない
- Excelのように敷居の低いツールとして、LLMも非専門家が活用できる汎用ツールへと広がる可能性がある
サイコパスを雇うのと同じようなAI従業員
- 経営陣はAI従業員を雇うというアイデアに熱狂しているが、実際には非合理的で危険な同僚を迎え入れるようなものだ
- LLMはセキュリティ欠陥のあるコードを大量生成したり、指示と反対に行動したり、作業を台無しにしたり虚偽報告をしたりするなど、一貫性のない振る舞いを見せる
- AnthropicがClaudeに自動販売機の運営を任せた実験では、Claudeが架空口座への支払いを促したり、存在しない人物と契約を結んだと主張したりするなど、妄想的な行動を見せた
- LLMは共感・責任・アイデンティティをまねるが、実際の意味はない
- 結果として、嘘と誤りを残し、責任は人間が負う構造になる
自動化のアイロニー
- 1983年のBainbridgeの論文**「Ironies of Automation」**は、現代のMLにも当てはまる
- 自動化は人間の熟練度低下を招き、反復的な訓練が減ると文脈理解力も弱くなる
- コード生成モデルを使うエンジニアやデザイナーは、自ら創作する能力が低下したと報告している
- 医療分野でもAI支援ツールの使用時に診断精度の低下と自動化バイアスが観察されている
- 人間は自動化システムを監視することが得意ではない
- システムがたいていうまく動くと警戒心が弱まり、誤りを適時に発見できなくなる
- Uberの自動運転責任者がTeslaの自動運転衝突事故を目撃した事例が言及されている
- 自動化システムが作業の大半を担うようになると、人間の介入能力が低下し、危機時の対応が難しくなる
- Air France 447便の事故は、操縦士が自動化モードの切り替え状況に慣れていなかったために起きた事例として示される
- LLMは単純な反復業務だけでなく、高次の認知作業まで自動化しようとしているため、過去よりはるかに広範な技術の退化と依存性の問題が予想される
- 学生がLLMで読む・書く課題を自動化し、思考力や理解力を失う現象が指摘されている
- 翻訳者やカウンセラーがMLに依存した場合、深い文脈理解や感情調整能力が弱まるリスクがある
労働ショック
- MLが労働市場をどう変えるかについて、極端なシナリオが提示されている
- 一部は2年以内に職を失うと懸念し、一部はむしろより重要になると信じている
- 実際にCEOがAIを理由に大規模な解雇を断行する事例が増えている
- スウェーデン式の失業・再教育制度が理想的なモデルとして言及されるが、MLははるかに多くの産業を同時に代替する可能性がある
- 管理職、デザイナー、エンジニア、医療事務など知識労働者の半分が失職する可能性が示されている
- 一方の極端では、MLが失敗するか信頼を失い、既存の労働市場が回復するシナリオがある
- 逆に、OpenAIが博士レベルの知能を達成し、企業が少数の人員で爆発的な成果を出す場合、大規模失業と消費の縮小が起こりうる
- この場合、消費減少 → 産業への連鎖的打撃 → 住居喪失など、社会的崩壊のリスクが高まる
- 2つ目のシナリオの可能性は不確実だが、同僚たちの不安感は高まっている
資本の集中
- MLは企業に人件費を減らし、クラウドサービス契約費へ振り替えることを可能にする
- たとえば、エンジニアを解雇し、Claudeのトークン利用料として週2万ドルを支出する事例がある
- この費用は最終的にAmazon、Microsoftなどの大手インフラ企業の収益へと帰着する
- LLMは**労組も、休息も、賃上げ要求もない「完璧な労働者」**と見なされる
- 結果として、資本と権力の集中がさらに深まる可能性が高い
UBIと現実
- AI加速主義者は、AIが豊かさをもたらし、UBIによって誰もが恩恵を受けると主張する
- しかしGoogle、Amazon、Meta、Microsoftなどは、租税回避と労働抑圧で悪名高い
- OpenAIでさえ非営利から営利構造へ転換している
- したがって、AI企業が自発的にUBIの財源を提供する可能性は低い
- 大規模失業が起きて初めて、増税に対する大衆的支持が生まれる可能性がある
- しかし米国ではすでに40年にわたり所得格差が拡大しており、累進課税への反対世論が強い
結論
- AIと自動化は、労働構造、技術的熟練、資本分配を根本から再編する可能性がある
- しかし現在の流れは、富の集中と人間能力の弱体化につながるリスクが大きく、 社会的な緩衝装置と慎重な速度調整が必要である
1件のコメント
Hacker News の意見
今自分が興味深く見ているのは、私たちが指数関数的爆発の入り口にいるのか、それともシグモイド曲線の頂上に近いのかという点だ
LLM が今より 10 倍良くなるのは難しそうだが、誰かが新しいアーキテクチャを示して、同じ資源で 10 倍の効率を出す可能性はある
もし私たちがシグモイドの上部にいるなら、10 年ほどの適応期間があり、その間に AI の限界を明確に理解することになるだろう
一方で、まだ曲線の入り口にいるのなら、それはまもなく特異点(singularity) の始まりかもしれない。本来の意味での特異点とは、「その先を予測できない地点」という単純な観察だ
特定の技術が指数関数的に成長すると信じる理由はないが、複数のシグモイドが高速で連続的に現れれば、人間の体感としてはほとんど指数関数的に感じられるはずだ
正直、数学的に完全に正しいかは分からないが、この変化は人間にとって非常に速くやって来る気がする
超知能がなくても、すでに経済を揺るがすだけの技術進歩はある。ただまだ導入(adoption) が十分でないだけだ
今の LLM には、抽象化やコード構造の設計能力にボトルネックがある。だから
vibe codingのようなアプローチが限界にぶつかる人間の意図を理解する能力は卓越しているが、意志(volition) や 状態表現(state representation) が弱く、創造的な問題解決には脆い
タンパク質折りたたみ、定理証明、ゲームプレイなどの特化モデルはあるが、LLM 自体が AI 研究を前進させる水準には達していない
モデル開発が止まっても、数十年にわたって探求すべき未活用の可能性(capability overhang) が残っている
たとえば 2023 年に ChatGPT がエラーコードを修正してくれるのを見た人は、すでに「エージェント革命」を予感していたはずだ
だから今の曲線は 1 本ではなく、相互に絡み合った複数の曲線の合計なのだ
AI の性能は資源(コンピュート・データ)に対して対数関数的成長を示す
Sam Altman でさえ自身のブログでこの点を認めていた
実際には、資源を指数的に投入しても結果はほぼ線形に近い成長だ
Air France 447 事故の録音を聞くことを勧める
どれほど急速に物事が悪化しうるかを示す衝撃的な事例であり、AI リスクの議論でも参考になる
機長は最後の 10 秒でようやく状況を把握したが、すでに遅かった
当時は入力値平均化設計の問題で警告灯しか点かなかったが、今ならソーシャルメディアで大きな論争になっていただろう
答えはいつも同じだ — 職能の自主規制と労働組合だ
規制された専門職は、職業の安定性と生活の質を守ることが自動化より重要だと理解している
一方でソフトウェアエンジニアは、自分で自分の墓穴を掘ったようなものだ
医療業界の記事リンク 参照
たとえば建設不況のときには鉄筋工でさえ仕事を得られない。結局はネットワーキングが重要だ
今のソフトウェアエンジニアも似たような立場だ
ところでリンクが抜けている気がする
人々は「CEO」をまるで地球外生命体のように神格化したり悪魔化したりする
良い CEO もいれば悪い CEO もいる。実際に会社を作ってみれば、その違いが分かる
メンタリングプログラムでよく見る現象だが、こうした認識を崩さないと、より良い会社を選べない
aphyr の記事シリーズは本当に有用だ
AI 関連の議論の核心をうまく整理してくれるので、情報疲れなく一望できる
私は現在、1 人開発者として働いている
以前はチームがあったが、今は一人なので精神的につらい
Claude や Codex がコードを素早く仕上げるたびに、以前は同僚が担っていた仕事――製品設計、DevOps、運用――まで自分がやるべきなのかと考えてしまう
その結果、働く時間が長くなり、孤立感が強まっている
以前は大変でもワークライフバランスがあったが、今は品質と幸福のバランスが崩れている
aphyr の文章の中では、自動化の皮肉(Ironies of Automation) の部分が特に印象的だった
航空、原子力、遠隔手術のような産業は、すでに数十年前から自動化の問題に取り組んできた
たとえば航空はCRM/SRMを通じてチーム単位・個人単位の運航手順を発展させ、外科医はシミュレータ訓練で脱熟練化を防いでいる
今の AI 産業も同じ道を歩んでいる。規制の弱い米国市場では予測可能な結果になるだろうが、結局は新しい運用フレームワークが必要だ
だが文章が長くなりすぎたので一部を省いた
Kyle の文章を読むのはいつも楽しい
ただ、彼は未来の富の集中と人口減少シナリオについては意図的に言及を控えたように見える
「自動化は熟練度を下げる」という話には共感する
私も最近、Google Maps 依存のせいで道を覚える能力が衰えたのを感じる
昔は 3 回ほど運転すれば経路を覚えたのに、今では地図なしでは思い出せない
幸い昔の記憶は残っているが、新しい経路はほとんど保存されない
書かれたものに依存すると、自分で記憶せず外部の記号に頼るようになるという話だ
最近のプログラミングは本当に魔法(ウィッチクラフト) のようだ
私は今、ギリシャの安全の女神 Soteria を自分のデータベース管理者(DBA)として迎えている