18 ポイント 投稿者 GN⁺ 2025-12-04 | 3件のコメント | WhatsAppで共有
  • シアトルの 大手テック企業のエンジニアたち の間で、AIに対する強い反感 が広がっている
  • Microsoft内部では Copilot 365 などのAIツールの強制使用AI関連の解雇 が続き、不満が蓄積している
  • AIプロジェクトに分類されないチームは 存在感と報酬の面で後回しにされ、エンジニアたちは 無力感と冷笑 に陥っている
  • こうした雰囲気の中で AIスタートアップや個人プロジェクト を紹介すると、即座に 敵対的な反応 が返ってくる
  • シアトルの技術文化は イノベーションよりも防御的な姿勢に閉じ込められており、これは 企業・エンジニア・起業家のすべての成長を妨げる要因 として働いている

シアトルにおけるAI嫌悪現象

  • シアトルのエンジニアたちが AIという言葉そのものに否定的な反応 を示す現象
    • WanderfuglというAIベースの地図プロジェクトを紹介したところ、シアトルのエンジニアの大半が 即座に批判的な反応 を見せた
    • 同じ製品を バリ、東京、パリ、サンフランシスコ で紹介したときには、好奇心と関心 が示された
  • 元Microsoftの同僚の一人は、製品そのものよりも 社内のAIツールと環境への不満 を吐露した
    • Copilot 365、Microsoft AIなど 業務で強制されるAIツールの非効率性 が主な不満要因
    • AI導入が 業務ストレスと解雇不安 につながっている

AI解雇と組織文化の崩壊

  • Microsoft内部で AI活用能力の不足 が解雇理由として言及された事例
    • あるチームのPMが解雇された理由として、「Copilot 365を十分に活用できなかった」という説明が与えられた
  • 過去には 『成長マインドセット』とイノベーション奨励の雰囲気 があったが、AI中心の構造改革以降、急激に萎縮 した
    • 組織間の協業プロジェクトは消え、AI関連業務だけが安全で名誉ある領域 と見なされるようになった
  • AIプロジェクトに分類されないエンジニアたちは 『非AI人材』という烙印 を押されている
    • 給与とストックオプションは停滞し、評価も悪化している
    • Copilot for Word、PowerPoint、Email、Codeなど 品質の低いAIツールの強制使用 が不満をさらに深めている

エンジニアたちの心理的疲労と冷笑

  • AIツールが 生産性向上に失敗 しているにもかかわらず、批判や改善の試みは禁じられている
    • AI組織の領域と見なされ、他部門は介入できない
  • エンジニアたちは AIは役に立たず、自分はその分野に向いていないと信じ込む自己制限的な思考 に陥っている
    • これは 企業のイノベーション低下個人のキャリア停滞スタートアップ生態系の縮小 につながる
  • 「AIに言及すると、アスベストを擁護する人のように扱われる」という表現で 社会的敵対感 を描写している

Amazonとシアトルの技術エコシステム

  • Amazonの社員は比較的 やや守られている が、根本的な問題は同じ
    • 「Amazonは待遇は悪いが報酬は高い」という従来の認識は、組織内部の疲労と冷笑を覆い隠しているにすぎない
  • シアトルの技術文化は イノベーションよりも防御的な姿勢 へと転換している
    • AIへの不信が 新しい試みそのものを抑え込む構造的な悪循環 を形成している

自己制限的信念の悪循環

  • AIに対する否定的な信念が 3つの集団すべてに被害 を与えている
    • 企業: 最高のエンジニアたちが、イノベーションを自分の役割だと考えなくなる
    • エンジニア: 怒りと自己疑念 の中でキャリアが停滞する
    • 起業家: 「AI」という言葉だけで 脅威的な存在として認識 される
  • この信念は 試みの不足 → 権限の縮小 → 悪い製品 → AI不信の強化 という循環構造として固定化されている
  • シアトルは依然として 世界トップクラスの技術人材 を擁しているが、サンフランシスコのように『世界を変えられる』という信念が失われている

3件のコメント

 
mhj5730 2025-12-05

MS 365 AIは広告とまったく違うクオリティ…

 
realg 2025-12-04

正直、Copilot 365 はかなりひどいですよね。いったいこれをどこで使えというのか。

 
GN⁺ 2025-12-04
Hacker Newsの意見
  • 元Google社員です。リンク先の記事の同僚のように感じている人は、Googleの内外にたくさんいます。
    私自身もこのAI懐疑的な考え方から完全には抜け出せていません。LLMが本当に効果的な分野はごく一部だけだと思います — たとえば正確である必要はないが、それらしく見えるデータ生成(コンセプトアート、映画の群衆アニメーションなど)。
    一方で、学習や正確性が重要な領域では長期的に悪影響を与え、そもそも非効率な分野にも無理やり押し込まれていく気がします。だからAI礼賛派や関連産業全体に対して過度に懐疑的です。正直に言えば、AIで金を稼いでいる人たちはみんな失敗してほしいという感情があります(暗号資産のときのように)

    • 私のGoogleの友人たちもほとんどがAIがソフトウェア開発を改善する可能性に否定的です。内部で真っ先に導入されると思っていたので意外でした
    • 私の経験では、生産性向上はほとんどないか、むしろ逆効果でした。初期開発は速くなりますが、コードレビューと修正により多くの時間がかかります。結局、仕事の総量が別のかごに移っただけです
    • 今のAI論争は**「タブ vs スペース」よりもさらに存在論的な技術宗教戦争**のようです。私はもともと誇大宣伝が嫌いですが、コーディングではAIの有用性を何度も確認してきました。ただ、オンラインでは伝道師のように見えるというフィードバックをよく受けます
    • 新しい技術を学ぶときにAIが悪いというのが本当なのか気になります。学習プロセスを飛ばさない限り有用だと感じますが、単なる補助的な質問用として使うなら問題ないのでは?
    • 私もかつてはAIが失敗すればいいと願っていました。結局、本当に価値のある用途だけが残るでしょう。ただ、このバブルがはじけるときの経済的衝撃が大きいのではと心配しています。金持ちは損をしないので、結局は消費者がインフレ、失業、サービス品質の低下などで代償を払うことになるでしょう。LLMは万能ではなく、ブロックチェーンのときのように無理やりあらゆる場所にねじ込む狂騒が恐ろしく感じられます
  • シアトルのソフトウェアエンジニアとして、同僚の大半は時間を浪費するタイプのAI導入を嫌っています。何人かAI伝道師のような人はいますが、彼らのコードでは以前にはなかったミスをよく見つけます。
    テストコードがフレームワークの機能を重複させていたり、テスト対象の関数そのものをモックしていたりすることもあります。そういうコードは見た目は立派でも、結局レビューを通りません。コードレビュー文化が弱いチームなら、保守は悪夢になると思います

    • 私たちのチームのようにレビューが緩いところでは、AIコードはむしろ長期的な手戻りコストを増やします。最初は通っても、あとで問題点が見つかると修正コストははるかに高くなります。問題を理解しないままAIコードを使うことこそが本当の問題です
    • AIは単なる道具にすぎません。許可した範囲でしか動かないので、使い方を誤った責任は結局人間にあります
    • AIが生成したコードで微妙だが深刻なバグを何度も見つけて以来、今ではAIが書いたように見えるコードをずっと疑い深くレビューするようになりました。品質への信頼が落ちています。AIでコーディングする人たちは本当の思考プロセスを避けているように見えます
    • 私の考えでは、AI伝道師たちも実は恐れているからそういう態度を取っているのだと思います。ビッグテックの外で働いてこそ、AIの価値をちゃんと感じられます
    • これは昔のJS/Node.jsブームに似ています。結局、関心度は0になります
  • 「エンジニアが試していない」というのは間違いです。問題なのは、AIを中心に世界を見る視点そのものです。
    ソフトウェアには実際の顧客価値を生む製品投資家を興奮させるための製品があります。LLMはブロックチェーンより実用的ですが、その可能性は誇張されています。
    私は投資家向けの見せ物より、顧客価値を作ることに時間を使いたいです。エンジニアがAIを避けるのは、できないからではなく、役に立たない仕事に引っ張られたくないからです

    • ほとんどのエンジニアはすでに生成AIを使ってみており、「ただテキストを入れてテキストが返ってくるだけ」というレベルだと感じて興味を失っています。
      AI礼賛派が言う「次のバージョンが世界を変える」は、実行不可能なニュースサイクルにすぎません。
      結局、新しいAI製品は「ただのテキスト入出力」なので、本質的に面白くありません
    • ヨーロッパのコンサル業界では、すべての提案書にAIの項目を無理やり入れるトレンドがあります。これが仕事の楽しさを奪っています
    • 世の中には説得の領域現実の領域があります。私はエンジニアとして現実の成果物を作るのが好きですが、仕事のかなりの部分が説得の領域にあることも実感しています
    • シアトルは前回の景気後退のとき、SFより大きな打撃を受けたのか気になります。それが今回のAIバブルへの反感につながっているようです
    • 誇大宣伝と実体は連続体の上にあります。エンジニアはたいていリスク回避型なのでハイプを避けますが、自分で賭ける側に回ると他の投資家と同じように非合理的になります
  • 元シアトル住民として、いくつか思うところがあります。

    1. 彼女の否定的な態度はレイオフのストレスによるものでした
    2. FAANGは過剰採用のあと、AIをレイオフの口実にしています
    3. シアトルのAIエコシステムは悪くありませんが、やはりAI誇大宣伝の犠牲者です
    4. 人々はAIそのものよりハイプを嫌っているのです
      それでも、あなたのアプリは面白そうだったので登録しました
    • 一部の人は本当にAIを嫌っています。レイオフだけが理由ではありません。反AIコミュニティもたくさんあります
    • 私はユニコーンの初期メンバーでしたが、ビッグテック出身者を大量採用したことで自律性の欠如した文化が生まれました。
      AI導入の号令は効率化を強制しようとする試みですが、実際には市場からのフィードバックがない環境で生じた副作用です。
      多くのビッグテックのエンジニアは生活水準インフレのせいで会社を辞められず、怒りを募らせています
    • 企業にはもっと正直であってほしいです。本当に強力なAI技術があるなら、従業員を敵に回すのは最悪の戦略です。
      手厚い退職パッケージと共感のあるレイオフ対応のほうが、はるかによかったはずです
    • 単なるハイプの問題ではありません。倫理の欠如、環境への影響、製品品質の低下、エネルギーの浪費など、根本的な問題もあります
  • 私はシアトルではなく別の場所でAIインフラの仕事をしています。最近はAI疲れがひどいです。
    第一に、周囲の人たちが新しいモデル、論文、オープンソースの話題に過剰に興奮しています。
    私は深く掘るべき2〜3のことに集中したいのに、この絶え間ない情報のブラウン運動がむしろブレーキになっています
    第二に、あらゆる問題にAIの解決策があると信じる空気がしんどいです。LLMを使う前に、自分で考えて実験するプロセスのほうがずっと生産的です
    第三に、「変化が速いから追いかけなければならない」という圧力がありますが、実際には基礎はほとんど変わっていません。浅く広い知識は役に立ちません
    最後に、技術の方向性を予測しろという圧力もあります。しかし私は戦略的予測より適応力を信じています。
    モデル自体は素晴らしいですが、疲れるのはその周囲の人間の振る舞いです

    • 新しいモデルが出たら私は試して、良ければデフォルトに切り替えて終わりです。
      モデルに執着する奇妙な崇拝文化は理解できません。ただのより良い道具にすぎません
  • みんながAIを語るとき、私は旅行計画アプリの話をしたいです。何千もの試みがありましたが、成功したものはありません。
    理由は2つです。

    1. Google Mapsの圧倒的なデータ品質に太刀打ちできない
    2. 収益モデルの不在 — 航空券、宿泊、ツアーなどはすでに競争が飽和しています
      結局、儲からない市場です
    • 旅行アプリを使うより、ブラウザのタブ数個とメモ帳で計画するほうが効率的です。
      アプリを入れて学ぶ摩擦のほうが大きいです
    • 私はWanderlogを有料で使っていますが満足しています。Google Mapsを内蔵しているのでカバレッジの問題もありません
    • こういう市場はすでに大規模プラットフォームが解決した領域です。ただ、ジオキャッシングのように、まだ解決されていないニッチは存在します
  • AIは実際に従業員に押し付けられており、その結果、業界内部では過大評価された技術だと見なされています。
    本当の変化はなく、むしろAI投資によるレイオフとコストの浪費が問題です。
    生き残る企業は一部だけでしょうが、ほとんどには痛みだけが残るでしょう

    • AIがレイオフの口実として使われるのは本当に不快です。人々の生計がかかった問題です
  • 大企業の従業員がAIを嫌う理由は、リーダーシップによる無知な押し付けのせいです。
    シアトルはMicrosoft、Amazonなどビッグテック従事者の比率が高いため、この疲労感がより強いのです。
    一方でSFでは、OpenAI、Anthropic、NvidiaなどAI中心のスタートアップの楽観論がバランスを取っています

    • 私が働くシアトル地域のスタートアップでは、AIに対する前向きな認識が多いです。
      ただし、繰り返されるレイオフの口実のせいで疲労感はたまっています。
      個人的には、ClaudeやGeminiのようなモデルはコードレビュー補助としてかなり有用だと感じます
    • そう、それが違いです
  • プロダクト名を決めるときは、必ず声に出して読んでみるべきだと助言したいです。発音がぎこちないとブランドは弱くなります

    • 私はノルウェーで育ちましたが、「wandervogel」は自然の中で自由に生きる人を意味します。
      ノルウェー語で発音すると「wander full」のように聞こえるので気に入っています
    • でもランディングページの半分では**「Wanderfull」**と表記されています。作者自身も名前を決めきれていないようです
    • 英語を第二言語として使うユーザーには、発音が違って聞こえるかもしれません。多様な言語背景を考慮すべきです
    • 名前を口に出して相手に綴りを書いてもらってください。正しく書けないなら、URL入力すら難しいということです
    • おそらく「Wanderfowl」のような英語風の名前を避けた理由は、foulの否定的な意味のせいでしょう
  • SFでも多くの技術者がAIを嫌っています。業界外の人たちはなおさらで、ただAIに未来を賭けている人たちが声を大きくしているだけです

    • 私が働く地方政府系では、むしろ非技術職の人たちのほうがAIに好意的です
    • ほとんどの人はAI生成物は嫌うが、ChatGPTは日常的に使っています
      私も消費者としては嫌いですが、業務ツールとしては有用だと感じます
    • 「AIに未来がかかっている」という前提には根拠がありません。技術進歩の速度は遅く、指数関数的成長もありません
    • 私の非技術系の友人たちの多くはAIを否定的に見ています。ただし、AI画像生成物を投稿している人たちは例外的に好意的です
    • その通りで、SFも同じです。ただ、あちらには実際に役立つAIプロジェクトが存在します