すべてが偽りに満ちた未来、いま私たちはどこへ向かうべきか
(aphyr.com)- 大規模言語モデルと機械学習が社会構造を再編し、自動車が都市を変えたように人間の生活全般を変化させている
- すでにAIが生成した虚偽情報と自動化されたコンテンツが、検索、メール、カスタマーサービスなど日常の領域に深く浸透している
- AIツールの使用中止と人間中心の思考の回復が必要であり、自ら文章を書き、人間の言語で考えるべきだ
- 個人はAI依存の拒否、労働組合の結成、政治的規制の要求など具体的な行動を通じて、技術拡散の速度を遅らせることができる
- こうした選択は法的・社会的副作用の緩和と倫理的な心の平穏の確保につながり、判断が誤っていたなら再び始めればよい
人工知能時代の後にある選択
- **大規模言語モデル(LLM)と機械学習(ML)**の発展が社会全体に及ぼす影響を、自動車の歴史的変化になぞらえている
- 自動車が都市構造、交通、環境、社会的関係を根本から変えたように、人工知能も人間の生活と産業構造を再編する可能性がある
- 技術の速度や利便性よりも、都市の形と人間の生活がどう変わるかに焦点を当てている
- すでにAIベースの虚偽情報と自動化コンテンツが日常に深く入り込んでいる
- 検索結果、カスタマーサービス、メール、Webサイトなどで、LLMが生成した不正確または虚偽の情報が広がっている
- データセンターの電力消費増加による料金の上昇と環境負荷が発生している
- 個人の仕事、芸術、人間関係にまでAIへ委ねる現象が広がっている
- AIツールの使用をやめる必要性を強調
- MLによる補助は人間の学習能力と理論的思考力を弱め、**James C. Scottの「metis」(熟練した実践的知識)**を失わせる
- 自分で文章を書き、問題を直接解決し、人との対話を通じて思考を保つべきだ
- AI生成物の消費を最小限に抑え、人間が作ったコンテンツを探して読むよう勧めている
- 個人と社会が取るべき実践的な行動を提示
- 自分の言葉で書くこと、AI生成物に依存しないことを促している
- 職場でのAI導入の強要への抵抗、労働組合の結成、政治的規制の要求を提案
- AI企業の炭素・デジタル排出への責任強化、データセンターへの税制優遇への反対、倫理的理由による退職の検討など具体的な行動を挙げている
- こうした抵抗はAIの発展を完全に止められなくても、その速度を遅らせることはできる
- 技術・産業・政府が適応する時間を稼ぎ、法的・社会的副作用を緩和できる
- AI生成の児童性的虐待素材(CSAM)、詐欺、セキュリティ脆弱性などの問題に対応する余地を確保できる
- 倫理的な選択を通じて良心の平穏を得られ、判断が間違っていたなら「あとでまた作ればいい」という結論で締めくくられる
それでも残る誘惑
- AIへの嫌悪と同時に実用的な誘惑が共存している
- 例として、色が変わる照明を制御するためのLLMによるコード生成の活用可能性に言及
- セキュリティリスクが低く、結果を自分で直接検証できる限定的な状況では、AI利用の有用性を認めている
- しかし、「何の害があるだろうか?」という問いで締めくくり、AI利用の境界と自己矛盾を示している
執筆過程
- 本文はVimで手作業で執筆され、Pandocで組版し、2回の紙の校正を経ている
- 初稿は友人たちに共有されてフィードバックを受けており、すべての誤りと見解は著者本人の責任であると明記している
- 執筆と編集の全過程がAIの助けなしに人間の手で行われたことを強調している
1件のコメント
Hacker Newsの意見
読む・考える・書くといった中核的な能力が、大規模言語モデルの影響圏に入りつつあると感じる
人類の歴史の大半において、これらの能力は社会的上昇を可能にする貴重な技能だった
しかし歴史的に見れば、1800年以前にはこうした能力は農民にとってあまり役に立たなかった
「頭のいい人」のための仕事が需要超過になり始めたのは第二次世界大戦後になってからで、その時代が社会的流動性の黄金期だった
それ以前は、身体的な強さや誠実さ、血筋、出生順位のような要素のほうが重要だった
AIが思考を代替する時代が来れば、再びそうした価値が中心になるのかもしれない
過去の長子相続制や性差別を「中核的価値」として取り戻す必要はない
「知能」が希少だった時代が特異だったのではなく、むしろそれは人類の発展の結果だった
私たちは歴史の囚人ではなく、データセンターやOSを持つ少数の支配者のもとへ戻る必要はない
賢い農民であっても、そうした能力のおかげでより効率的な農場を運営できただろう
何兆ものパラメータを持つモデルですら左右の区別もできない
人間の思考が終わったわけではなく、蒸気機関が馬の時代を完全に終わらせなかったのと同じで、まだ先は長い
農業が始まって以降も、計画と資源管理の能力はずっと重要だった
だが、1800年代が人類の正常状態だったという考えは奇妙だ
「裕福なオタク」の有無で社会変化を説明するのも飛躍がある
Kyleの文章は、ぜひ読む価値のあるシリーズだ
自動車の導入とAIの拡大を比較している点が印象的だった
技術は有用だからといって、社会に良い影響だけを与えるとは限らない
私はLLMを、リスクを制御できる限られた環境でのみ使うのが妥当だと思う
1920年代に「車に乗るな」と言うより、負の影響を予測して政策で緩和しようとする姿勢が必要だった
技術の限界を理解した専門家が責任を持って関与すべきだ
まるで学校でスマートフォンを禁止して自発的な人間同士の交流を取り戻そうとする試みに似ている
技術を止めるのではなく、人々を教育すべきだ
AIの発展は物理シミュレーションやタンパク質折りたたみなどにも応用できる
この技術は0.001%のエリートに完全に最適化されていると感じる
彼らにとっては人口減少や社会統制のほうがむしろ利益になる
将来世代に対する責任がないなら個人的な生存だけを考えればいいが、責任があるなら地球規模の革命が必要だ
人間を代替するという話は誇張で、自動化はむしろ新しい仕事を生み出すだろう
CEOたちが労働代替を語るのは、解雇を正当化するための言い訳だ
問題はAIを愛している人が多すぎることだ
安定した職にある人ほど先に行動すべきだ
Neal Stephensonの『In the Beginning Was the Command Line』の結末を思い出した
人生がひとつのOSのようにデフォルトで提供され、人々はただ「LIVE」ボタンを押すだけの世界
不満を言えば、「次のアップデートで良くなります」としか返ってこない
結局、本物のエンジニアはこう言うだろう――「人生は本来複雑であり、選択は自分でしなければならない」
このシリーズの主要記事を整理しておく
繰り返しを避けるというHNの原則のため、普通はシリーズ記事には重みをつけないが、今回は例外だった
たとえば古代機械の復元シリーズなら、各回がまったく異なる主題を扱うこともありうる
未来について断定的に予言するのは、ただ恐怖を鎮めるためのやり方にすぎない
AIがどこへ向かうのか、誰にも分からない
自動車のようになるのか、まったく別の道を進むのかも分からない
だから「Anthropicのエンジニアは今すぐ辞めるべきだ」といった主張は早計な判断だ
大学時代を振り返ると、試行錯誤を通じて得た筋肉記憶と理論的な深さが今の自分を作った
今の大学生なら、LLMの誘惑を振り切るのは難しいと思う
締め切りや試験、友人との時間のあいだで、結局AIを使うことになるだろう
気候悪化、経済的不平等、制度への不信、AIによる雇用不安が重なっている
娘が大学の専攻を考えるとき、私はどんな助言も自信を持って言えない
AIが代わりにやってしまう瞬間、その経験的学習は失われる
困難に耐えながら積み上げた文脈があってこそ、AIの答えも正しく理解できる
何千時間もの手作業の経験が直感的なコード感覚を作ってくれた
新しい世代がそれをAIで代替するのは難しい
深く学ぼうとする人ほど、かえって競争で不利になるインセンティブが生まれる
社会構造が変わるのは確かだが、参加しないという選択は現実には難しいと感じる
AIを使わなければ取り残され、人事は経験を求める
自分に損になる選択を、いったい誰がするだろうか
私たちはたった一度の技術的ブレークスルーでAGIに到達するかもしれない
たとえば常温超伝導体が発見されれば、THz速度のチップや即時充電されるバッテリーが可能になるだろう
AIはいま、1980年代のコンピュータのような爆発直前の段階にある
この半年で私自身も完全に楽観派へと変わった
技術が進み続ければ、安全な仕事はひとつも残らないだろう
すでに冷却された超伝導体でもそうしたチップが作れるなら、とっくにやっていたはずだ
著者はLLMを使わないと言うが、それは能力があるからだ
大半の人にはそんなことはできない
すでにテストコードすら書かない開発者が多いのに、彼らにとってAIは生存手段だ
基礎を学び直す時間もなく、LLMトレンドにまで追いつかなければならない
結局、本物のエンジニアより「魔術師」が多くなる時代が来るのだろう
新しい世代の開発者たちも、競争に勝つために性能の良いソフトウェアを作れるようになるはずだ
AIでコーディングしようがしまいが、結果が良ければそれが実力だ
人類は常に終末論的悲観を語ってきたが、結局はうまく適応してきた