3 ポイント 投稿者 GN⁺ 3 일 전 | 1件のコメント | WhatsAppで共有
  • 政治的動機による暴力が起きるほど、AIとデータセンターをめぐる反感が強まっており、AI企業CEOの自宅への火炎瓶攻撃と、データセンター支持の市議会議員宅への銃撃事件が相次いで発生した
  • 専門家の楽観論と大衆認識のあいだの隔たりも大きく広がっており、雇用や経済に対するAIの長期的影響を前向きに見る割合は、一般大衆のほうで大幅に低かった
  • 極端な未来像と大規模投資の要求は、すでに不安定な雇用や生活費上昇、電気料金負担への懸念と結びつき、AIを望まない大衆に押し付けられるものとして映るようにしている
  • 生産性向上の約束はまだ明確に立証されておらず、多くの企業がAI導入後の生産性改善を実感できておらず、多くのパイロットプログラムも収益を生んでいない
  • 信頼回復には、ホワイトペーパーや広報よりも、検証可能な行動、実際の性能に関する透明性、規制と責任の受容、データセンター拡大過程への地域参加のほうが重要になっている

強まる反発と暴力の兆候

  • OpenAI CEO Sam Altmanの自宅が火炎瓶攻撃を受け、容疑者はAIの実存的脅威を警告する声明文を残した
    • 容疑者は同日に逮捕され、関連内容は SF Standard報道 に掲載されている
    • 声明文には、AI企業のCEOを殺すべきだという文言とともに、Instagramで自分を「butlerian jihadist」と呼んだ表現が含まれていた
  • Indianapolisでは、地元民主党の市議会議員Ron Gibsonの自宅に13発の銃弾が撃ち込まれ、玄関前には「No Data Centers」というメモが残されていた
    • 当時、家には8歳の息子がいたが無傷だった
    • Gibsonは自らの選挙区に建設される可能性のあるデータセンタープロジェクトを支持しており、関連内容は PBS NewsHour にまとめられている
  • 2つの事件はいずれも政治的動機による暴力として描写され、ソーシャルメディアではそれを面白がるような反応まで見られた
    • 関連例は X投稿 につながっている

大衆と業界のあいだの認識ギャップ

  • Stanfordの Artificial Intelligence Index 2026 では、専門家の楽観論と大衆認識のあいだに大きな隔たりがあることが示された
    • 雇用への長期的影響について、専門家は73パーセントが肯定的で、経済への影響についても69パーセントが肯定的に見ていた
    • 一般大衆は同じ項目でそれぞれ23パーセント、21パーセントしか肯定的に見ておらず、米国人のほぼ3分の2は今後20年間でAIが雇用を減らすと見ている
  • Gallupの2026年3月調査 では、Gen ZのAI懐疑論がさらに強まっている
    • AIに興奮を感じる割合は36パーセントから22パーセントへ低下した
    • AIに怒りを感じる割合は22パーセントから31パーセントへ上昇した
  • こうした流れは、AIを単なる技術ではなくエリートの政治プロジェクトとして見る反発と結びついている
    • Jasmine Sunはこれを、現実から乖離した億万長者たちが望まない大衆に押し付けるものだとみなす世界観として 整理 している

反発を強めた業界のメッセージと現実のコスト

  • AI業界の主要CEOたちは長年にわたり、極端な未来像を交互に強調してきた
  • こうしたメッセージは、一般大衆がすでに直面している不安定な生活条件と衝突している
  • こうした状況のなかで、業界は莫大な投資と大規模なデータセンター拡張を同時に求めている
    • Stanfordレポートは、業界が数千億ドル規模の継続投資の呼び込みを求めている流れを伝えている
    • データセンター拡張は地域の電気料金にも影響を与えており、関連内容は Brookings が扱っている
    • 米国データセンターブームの中心地であるVirginiaでは、2030年までに家庭向け電気料金が最大25パーセント上昇する可能性があるとの見通しが Georgetown Environmental Law Review に掲載されている

生産性向上の約束と実際の成果の隔たり

  • こうしたコストは、AIが具体的な公共的利益や明確な業務改善を示す場合にのみ受け入れられうるが、その根拠はまだ弱い
  • 2026年2月のNBER論文によれば、AIを積極導入し始めた企業の80パーセントが、会社の生産性に影響はなかったと報告している
    • 関連数値は Tom's Hardware の要約を通じて引用されている
  • 2025年のMIT研究では、企業のAIパイロットプログラムの95パーセントがまったく収益を生んでいないと示された
  • コーディングや技術業務のようにAIへの期待が大きい領域でも、生産性数値の検証可能性は揺らいでいる
    • 機械学習エンジニアのHan-Chung Leeは GitHub記事 で、内部的に好意的な数値が出ても、それは採用目標を満たすために作られた値かもしれず、外部から有効に監査するのは難しいと指摘している
  • ただし、ChatGPTが2022年11月に公開された最初の大衆的デモ事例だったことを踏まえれば、新技術が荒削りな導入期を経験すること自体は自然でもある

信頼回復に必要な条件と現在の限界

  • 大衆が体感した技術体験と、業界が自分たち自身を語るやり方との隔たりは、すでに目に見える結果につながっている
    • 米国で2026年予定のデータセンターのほぼ半数が中止または遅延している流れが TechRadar に掲載されている
    • AI業界は ICEやDonald Trumpよりも不人気 だという調査結果まで出ている
  • Big Techも一般大衆に降りかかりうる問題を認識し、一部の緩和策を打ち出し始めている
    • OpenAIは4月に Industrial Policy White Paper を公開し、Public Wealth Fundの創設、社会安全網の改編、AIの労働影響のリアルタイム測定といった案を盛り込んだ
    • Microsoftは1月、Community-First AI Infrastructure Initiative を通じて、データセンターを建設する地域への公共料金補助と水使用の最小化を約束した
  • しかし、プレスリリースの約束と現場での実行力のあいだには、再び隔たりが残っている
    • MicrosoftのCommunity-First Initiativeには、独立した責任追跡の仕組みが含まれていない
    • OpenAIの新しいホワイトペーパーは進歩的な技術政策へ動いているように見えるが、Greg Brockmanは州レベルのAI規制を阻止するSuperPACに数百万ドルを送っており、関連内容は Fortune に掲載されている
    • OpenAIはIllinoisの Senate Bill 3444 も支持しており、この法案はAIモデルがもたらした大規模被害について企業を保護する方向だと紹介されている
    • 同じ記事では、Anthropicはこの法案に反対していると書かれている
  • Sam Altmanを扱ったRonan Farrowの New Yorker記事 とあわせ、公開の支持姿勢を示したあと、会社に有利になると素早く方向転換する反復パターンも浮き彫りになっている
  • 信頼を取り戻すには、また別のホワイトペーパーよりも継続的で検証可能な行動のほうが重要になっている
    • 製品が実際に何をできるのかについて、本当の透明性が必要だ
    • 金銭的コストを伴っても、意味のある規制と責任を受け入れなければならない
    • データセンター拡大には、地域コミュニティの実質的な民主的参加が必要だ
    • そうでなければ、拡大するAIポピュリズムと、それに伴う暴力の可能性もまた高まるかもしれない

1件のコメント

 
GN⁺ 3 일 전
Hacker News の意見
  • AI批判は少なくとも3つに分けて別々に議論すべきだと思う。解決策がそれぞれ違う
    1つ目は雇用喪失で、これは比較的単純だ。AIによる生産性を社会全体で分かち合うべきで、特にAIが社会の成果物で学習したことを考えればなおさらだ。最も簡単な方法はAI利用税を徴収してUBIに回すことだと思う。仕事を失っても所得が維持されるなら、不満ははるかに減るだろう
    2つ目は環境コストで、これはより厄介だ。効率改善とクリーンエネルギー拡大が核心であり、課税と効率規制が出発点になりうる。持続可能なエネルギー技術はすでにあるが高価で、AIが莫大な電力を使い続けるなら、この点は妥協不可であるべきだ
    最後が本当に難しい部分だ。創作作業をどこまでAIに任せるのか、AIが作った創作物をどう扱うのか、答えがない
    これに関連する問題として、AIが人間のふりをして大規模な詐欺と欺瞞を行える点も大きい。今の対応体制は、多くの詐欺には時間と労力がかかるという前提の上にあるが、その前提が今まさに崩れつつある

    • その理屈は以前のロボット自動化の時にも出ていたが、現実にはならなかった。税も取られず、生産性の利益も共有されなかった。むしろセルフレジのように、企業の仕事が顧客に押し付けられることさえあった
      AIデータセンターはすべて持続可能な自家発電で動かすべきだと思う。何十年もかけて電力と水の効率を改善してきたのに、それを一部の強欲な企業に全部吸い上げさせる理由はない
      冗談みたいに聞こえるかもしれないが、AIには私の代わりに皿洗いや洗濯物の片付けをしてほしくて、私は本を書いたり音楽を作ったりしたい。その逆は望まない
    • 年収6万ドルの仕事を失ったとき、AI財源で作るベーシックインカムがその損失を埋めてくれるとは信じがたい。アメリカで話題に出る年1万2千ドルのUBIでさえ、予算がさらに3兆ドル必要になる
      AI企業への課税だけでそこまで賄えるとは思えず、ベーシックインカムを語る側は数字をはるかに真剣に合わせるべきだ。現実的な解決策には見えない
    • Altmanや、ある程度はMuskも含めて、AI業界の顔ぶれがあまりにも感じが悪い。あの人たちは公然と大規模失業や、果ては人類絶滅まで口にしてきたのだから、実際のリスクとは別に会社そのものが嫌われるのは当然だ
    • 4つ目に検討すべきなのは政治的影響力の統制だ。AI企業のCEOたちが莫大な資金力で規制、選挙、社会保障、外交にまで影響を及ぼすようになれば、事実上民主主義が壊れかねない
      もし本当に労働力の50%をAIで置き換えるようなことになれば、彼らの影響力は想像を超えるだろう
    • Art Decoの時代にも、大量生産が芸術に与える影響をめぐって似たような議論があった。新しい工業的手法で作られた作品が手工芸と同等の質を持ちうるのかで意見が分かれ、今でも人によって判断は違うだろう
      技術はまだ先だが、AI的な大量生産の一例として小説の映画化の自動化のようなものを想像できる。こうした変化は人をより力強くすることもあれば、芸術の質を下げたり上げたり、社会を分断したり逆に結びつけたりもするだろう
      [1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
  • AI CEOたちは何年もAIは怖いお前の仕事を奪うと叫び続けてきた
    「Mythosは危険すぎて公開できない」
    「ChatGPTから生物テロの方法を引き出せたら賞金を出す」
    「エージェント型AIが職務カテゴリそのものを消し去るだろう」
    こうしたメッセージは一般大衆向けではなく、資金があり削減すべきコスト項目を持ち、国境を守るか広げたい政府や大企業の顧客へのシグナルに見える
    人々がAIを嫌うのはまったく不思議ではない。そもそも人のための製品のように宣伝されたことがほとんどない

  • AI業界の外から見れば、この流れはあまりにも当然だった。業界リーダーたちは数百万の雇用削減、他の職務の大規模再編、さらには致命的な武力の自動化まで語りながら、それでも開発は続けると言ってきた
    最近の経済不安や大量解雇でさえ、解雇を実行する経営陣がAIのせいにしてきたし、主要なAI企業は知的財産をためらいなく学習に使ったうえで、AIを誰にでも押し込んできた
    大衆がAIを嫌うのは不思議でも何でもなく、業界も好感を持たれるよう努力してきたとはほとんど言えない

    • Roy Sutherlandの見方はよかった。今のAI企業は価値創出よりコスト削減を狙っており、その方向は退行的で周囲まで破壊的だ
      結局、この手の会社のCEOたちは、社会的コストがいくらかかろうと自社だけを大きくしたいように見える
    • 一部のテックCEOは浮かれすぎて仮面がはがれた感じだった。「嫌ならどうする?」という態度に出て、さすがに早すぎたと気づけば、すぐまた引っ込む気がする
    • 約束されたほどの生産性向上も、約束されたほどの低コストも、実際にはあまり出ていない。最も熱狂しているのは現場の実務者ではなく、中間管理職であることが多い
      みんなが同じヘビ油を使う市場では、これは差別化ではなく、高い金を払って平均レベルを得る道に見える
    • 業界人が大衆に嫌われている事実に驚いていること自体のほうがむしろ驚きだ。何年も恐怖マーケティングと誇張ばかり続けてきて、普通の人の生活をはっきり改善したものもほとんどないのに、何を期待していたのか分からない
    • AIブースターたちの性格も、そろいもそろって詐欺師っぽくて尊大に見えるから余計に嫌われる
      Xのブースターたち、中間管理職タイプ、LinkedInのAIインフルエンサー、Facebookの偽動画制作者まで、そういう類の人間を引き寄せている感じがする
  • 本当にそうなのかと思う。金曜日に会社で親AIのプレゼンを聞いたが、AIカンファレンス参加者を調べたところ93%がAIに期待感を示したと言っていた
    それを「みんな子犬が好きじゃないですか」みたいな顔で真面目に話していた
    自己認識の欠如があまりにもひどく見えた

    • コンサル会社や大企業では、AIに関心があるふりをしなければならない雰囲気がある。単に組織文化がそうなのだ
    • その調査で違うと答える人がどんな立場に置かれるかを考えればいい。上司に「AIは社会に有害そうなので使いたくない」と言うのは、生産性向上や会社の収益拡大に関心がないと宣言するのに近い
      そんな評判を背負いたい人はほとんどいないだろうし、だからこそこの技術が望むと望まざるとにかかわらず押し寄せてくるという不可避の空気が生まれるのだと思う
    • ゲーマーにAIをどう思うか聞けば、ほぼ全員が否定的だろう。RAMageddonを見ればそうだ
    • ドッグショーで人に犬が好きかとアンケートするようなものに見える
      今の市場環境で、上司や公の場で「AIはかなりたわごとっぽい」と気楽に言える人がどれだけいるかとも思う
    • これは単なる代表性のない標本バイアスに見える
  • 社内の生産性指標でさえ導入目標に合わせて作られ、外部検証が難しいのなら、それは実のところ多くのMBA流BIがやっていることと大差ない
    私の経験ではBIはしばしばトランプの家のようで、履歴書を書く時のように物語をきれいに飾る作業に近いことが多かった
    結局、アメリカ企業の基本単位は、説得力のある政治的ナラティブをどれだけうまく作れるかであるように見えることが多い

  • すでに雇用が不安定だと感じられる時代に、「私たちはお前の仕事をなくし、お前を無用にする」と言っておいて大衆の好感を得られると期待するのは筋が通らない
    富を蓄積する代替経路も示さず、住宅費や医療費のような経済問題も解決せず、社会的結束とエネルギー価格だけをさらに悪化させるならなおさらだ
    業界がAIの社会的影響に対する大衆の反感をこのまま楽しげに無視し続けるなら、チェルノブイリ後の反原発感情よりも強い逆風が来るかもしれない

  • この記事で扱っているのと同じ調査を見ると、回答者の間では全般的に好感を持たれている対象そのものがほとんどない。AIが不人気なのは確かだが、より広い全方位的な嫌悪ムードの一部でもある

    • その全方位的な嫌悪は、単に世界の状態に対する不満と不安の反映だと思う。賃金は停滞しているのに物価は上がり、株式市場が好調だというニュースはあふれているが、その利益は実感できない
      政治家は戦争や破壊には金を使う一方で社会プログラムには渋く、インターネットの台頭は既存の物語を疑いやすくも、信じにくくもしている
      こうした混乱と不安の中で、誰かを責めたくなる気持ちが強まるのは不思議ではない
  • 少なくともプログラマーの間での大規模導入については、こういう記事でももう少し認めてほしい。たまにメールを書かせる程度とは比べものにならず、すでにソフトウェア開発にはかなりの影響がある
    これをまだ一部だけが試している些細なツールのように描くのは現実を見落としている

    • ソフトウェアでの影響は測定が非常に難しい。上下動も大きく、変数も多すぎる
      特に導入率は無意味な指標かもしれない。実際には大して役に立たなかったり、役に立っても使う過程で人を惨めにしたりするのに、強制導入されることがあるからだ
      しかも長期的にどんな結果を生むか分からないexpertise debtも積み上がっている
    • 多くの開発者は望んでではなく、給料をもらうためにこのツールを受け入れた
      その間にもAI業界は、彼らの仕事そのものをなくそうと懸命に動いている
  • 多くの人にとってAIは単なる画像生成テキスト生成にすぎない。そしてその用途だけを見れば、時間も金もエネルギーも費やす価値がないと感じるのも理解できる
    だが人々があまり見ていない領域、たとえば医学では、AIが実際に役立っている場所もある。創薬、がん研究と早期発見、CTやMRIの解析などだ。こうした活用のほうがはるかに重要なのに、あまり語られていない
    AIを単一のものとしてだけ見ると、良い部分まで一緒に捨てる危険がある

    • そうした医療活用も人々は知っている。ただ、圧倒的に多い否定的活用があるのだから、そこに焦点が当たるのは驚くことではない
      医療活用のほうが重要だと言うのもやや的外れだ。人が誰かを癒やすことが人生を壊すことより重要なのは当然だが、だからといってAIの他の害悪が帳消しになるわけではない
      AIに否定的だからといって、肯定的な部分までなくしたいという意味ではない
    • 見方の問題だ。包丁をタマネギを切る道具として売るのと、隣人を殺す武器として宣伝するのとではまったく違う
      AIは業界人によって、公然とお前の仕事を置き換える道具として売られている。だとすれば、彼らのマーケティングがひどすぎるか、他産業での利益が小さいか、株主価値を生めていないということかもしれない
    • しばしば「子どもたちのことを考えろ」式の言い訳に聞こえる
      そういう分野でAIが本当に意味のある進展を生んだなら、その時にきちんと議論すればいい。21世紀最大級の医療革新候補であるmRNAGLP-1は、少なくとも私の知る限りLLMが中核的役割を果たした事例ではない
      そうした成果が実際に出るまでは、この主張はファンフィクションに近いし、もっと冷酷に言えば、仕事を奪われ、情報の信頼性が崩れ、あらゆる場所がスロップで埋め尽くされる中で、単に長生きすることにどんな意味があるのかとも思う。これは未来の想像ではなく、すでに起きている被害だ
    • 今のAIは、お前の仕事や部下の仕事をよりうまくできるよう助ける道具としてではなく、部下を置き換えて四半期利益を引き上げる道具として売られている
      数兆ドル売上の物語はまさにそこから出てくる
  • 私が話す非テック圏の人たちの感覚では、大衆のかなりの部分がAIを嫌っている。むしろそれは常識的な判断に見える
    個人的にはGemini Ultraの購読には価値があると感じるし、AntiGravityで強力なAPIを触ったり、Claude系やGemini App、NotebookLMを使ったりする面白さや知的興味も大きい
    しかし、データセンターのコストや、アメリカ政府によるAI大手への救済措置の可能性といった社会的コストまで正当化できるかと言われればできない
    むしろ中国が我々を追い抜きつつあるように見える。より安いAIを作る側が勝つ戦略に見え、GLM-5.1Deepseek v4は、はるかに低い推論コストの割に驚くほど効果的だ