- AIベースの説得技術が発展した結果、エリートが大衆の政策選好を精密に調整できるコストが急速に低下する
- 本研究は、エリートの多数決制約と説得コストを考慮し、大衆の意見分布がどのように再構成されるかを動学的モデルとして分析
- 単一エリート体制では説得技術の高度化により社会が極端な二極化状態へ収束する傾向が見られる
- これに対し、対立する二人のエリートが交互に権力を握る場合、説得技術は社会を**「準固定(semi-lock)」状態**へ導き、二極化を緩和することもある
- 結果としてAIが説得コストを下げると、二極化は自然発生的現象ではなく統治戦略の道具へと変わり、民主主義の安定性に重大な含意を持つ
民主主義における説得技術の変化
- 民主主義では政策実施のために大衆の支持確保が不可欠であり、エリートはそのために大衆の信念を形成、または変化させる必要がある
- 過去は学校教育、公共放送、宣伝、支援ネットワークなど遅く非効率的な手段に依存していた
- これらの方法は高コストかつ低精度であったため、大規模な世論操作が難しかった
- AIの普及はこの制約を根本的に変えた
- 生成モデルとエージェントシステムにより、個別最適化された説得コンテンツをリアルタイムで大量に生成可能
- 説得コストが低下することで、大衆の選好分布そのものがエリートの選択変数へと移行する
単一エリート・モデル:「分極化プル(polarization pull)」
- 単一エリートは各時点で多数決ルールの下、政策を実施するために大衆の支持を調整する
- 説得コストが存在する場合、エリートは将来の不確実性に備えて社会をやや分断された状態で維持する方が有利
- 世論が50:50に近いほど、次時点で政策方向が変わっても支持を切り替えるコストが最小化される
- したがってエリートは世論を合意から遠ざける、すなわち極端化方向へ移動させる傾向を示す
- 説得技術の高度化により、このような分極化収束速度が加速する
- 数学的分析の結果、エリートは世論を**中間値(1/2)**付近へ移動させるのが最適であり、合意から遠ざかる調整のみが発生する
二人エリート競争モデル:「準固定(semi-lock)」効果
- 対立する二人のエリートが交互に権力を握る場合、説得技術の効果は異なる
- 両者とも世論を多数決の閾値付近に維持しようとするが、極端な二極化は相手に反転されやすくなり、容易に再奪取される
- そのため各エリートは、世論を相手が反転しにくい中間固定区間へ移動させようとする
- 結果として、説得技術は環境により分極化を強化したり緩和したりできる
- 競争が激しくなるほど社会的結束力の増加につながる可能性がある
既存研究との差別化
- 既存文献は、分極化を所得、アイデンティティ、メディア構造などの外生的要因の結果として分析してきた
- 本研究は分極化をエリートが戦略的に選択する政策手段としてモデル化
- また、AIベースの説得技術の進展が長期的に政治バランスと世論分布をどのように再編するかを接続する
- 参考文献として、LLMベースの説得実験(Salvi et al., Schoenegger et al., Tappinら)とAIの政治経済的影響(Korinek, 2024)を参照
民主主義の安定性に関する含意
- 説得コストが低下するにつれて、分極化は自然発生的現象ではなく戦略的な統治手段として機能
- これは政治的不安定性と情報操作リスクを増大させる可能性がある
- AI技術の発展により、政治的説得の構造とコストが再編されることで、民主主義制度の持続可能性に新たな挑戦を突き付ける
1件のコメント
Hacker Newsの意見
Converseのエッセイを読みながら、大衆が本当に意見を持っているのか疑問に思った
たとえば関税の問題を見ると、世論調査では賛成が38%程度だが、業種別の利害関係で見ればもっと低いはずだ
小売・サービス・建設業は関税で得る利益がなく、製造業も輸入原材料への依存のため微妙だ
結局、強く賛成しているのは鉄鋼・アルミニウム産業だけだが、GDPの2%水準にすぎない
興味深いことに、この本は1964年に出版され、ベトナム戦争やカウンターカルチャー運動など社会的不満が爆発する直前の時期を扱っている
対外依存度を下げ、雇用を増やそうとする費用便益分析の結果と見ている
人々は自分が多くを知っていると錯覚し、その意見が政策決定で同等に扱われるべきだと信じている
西洋社会では互いの見解に異議を唱えたり責任を問うたりしない文化が広がっており、こうした現象を深刻化させている
記事の内容はAIに特化した議論ではない
説得のコスト構造が核心であり、AIは単に宣伝物を安く作る道具として言及されるだけだ
同じ論理はFacebookのターゲティング広告やロシアのトロール部隊にも適用できる
AIが自信満々に話すため、権威感が生まれる
本当の問題は、こうしたメッセージを統制する超富裕層の影響力だ
これについての考えをブログ記事にまとめた
ロシアのトロールは自動化によってコンテンツを10倍多く生産できるが、自発的な反対運動はそこまで拡大できない
良いことも増えるが、悪いことも安く実行可能になるのが問題だ
エリートによる世論操作は新聞や放送の時代から続いてきたことだ
教科書や教育課程も同様だった
むしろLLMは宣伝への耐性が高い可能性すらある。百科事典に次ぐくらいに
商業的な競争が存在するため、特定のモデルが偏ればユーザーはすぐ気づいて離れるだろう
「客観的報道」という概念も、実際には商業的な信頼確保戦略に由来している
「自由思想家」になるというのは、しばしば「変わった人」になるのと同じだ
群衆が間違っていることもあるが、一人だけ違う考えを持つと社会的コストが大きい
たとえば私はベッドフレームなしでマットレスだけを使うほうが快適だと思っているが、たいていの人は変だと見る
結局、私たちは一人で生まれ一人で死ぬのであり、他人の承認ははかない
通気が悪ければカビが生え、年配者や体の弱い人には不便だ
**布団(futon)**のように床での使用向けに設計された製品のほうが適している
すでに**大型AIモデルは敏感な話題についてファインチューニング(fine-tuning)**されている
企業の法務・マーケティング・ガバナンスチームが合意した方向に調整され、何百万人もの人がその結果をそのまま使っている
私はAIを使って銀行から200ドルを返金させることに成功した
銀行のPDF文書を参考に、AIが正式な請求書簡を書いてくれた
今後、銀行がAIでこうした請求を処理するようになれば、AIがAIを説得する時代が来るだろう
新しい**LLMベンチマーク: AI-persuasion™**が必要だ
機械学習ベースの影響力操作はすでに10年前から存在していた
データマイニングと広告ターゲティングは成熟した技術だ
心配なのは即興的な説得ではなく、幼少期から信念が形成される構造的影響力だ
「iPad世代」がその例であり、恐ろしく感じる
人々は最初に聞いた情報を真実として受け入れ、後で反論されると感情的に反応する
幼い頃に刷り込まれた「事実」は後から変えにくく、自動化システムはこれを大規模に実行できる
操作コストがほぼ0に収束するため危険だ
私たちには私的監視社会に対する安全装置がない
本当に解決すべきなのは、教育、住居、食料、生活費といった日常的な問題だ
人類史の大半は少数エリートが富と権力を独占する封建的な構造だった
今の不平等はシステムが意図した結果であり、今後さらに悪化するだろう
識字率、教育参加率、栄養状態は1925年よりはるかに改善している
ただし住居費と生活費はここ20年で再び悪化している
ソーシャルメディアとAIのおかげで「大きな嘘(Big Lie)」のコストは急激に下がった
そのため政府が物価下落を強調するようなメッセージも簡単に広められる
本当の「Big Lie」は少数の内部者への浸透によって可能になり、CIAはすでにその効率性を示してきた
ほぼ1世紀前、ジョージ・オーウェルの『1984』ですでにこの状況は予見されていた
記録をリアルタイムで修正し、過去を消し去る情報統制の悪夢が描かれている
原文を見る