- マイクロソフトはAIエージェント製品の販売成長目標を半分に引き下げ、これは多くの営業担当者が既存の割り当てを達成できなかったことに起因する調整である
- AIエージェントは単一プロンプト応答ではなく、複数段階の作業を自律的に実行するよう設計された言語モデルベースのシステムで、2025年の同社の中核戦略として提示された
- 一部のAzure営業部門ではFoundry製品の売上を50%増加させる目標を設定したが、5分の1未満の営業担当者だけが達成し、目標が25%に下方修正された
- 企業顧客はまだAIエージェントツールにプレミアムコストを支払う意欲が低く、CopilotよりChatGPTを好むケースも報告されている
- 現在のAIエージェント技術は自律的なビジネス業務を実行するには信頼性が不十分であり、マイクロソフトは引き続き大規模なインフラ投資を継続している
マイクロソフトのAI販売目標の下方修正
- マイクロソフトは6月に終了した会計年度で、多くの営業担当者がAI製品の販売ノルマを達成できなかったため、AIエージェント製品の販売成長目標を半減
- The Informationの報道によると、これはマイクロソフトとしては例外的な調整とみなされている
- 同社は今年初めに「AIエージェント時代」を宣言し、AI中心の売上拡大を主要目標として示した
- AIエージェントは自律的な複数段階タスク実行を目的とする言語モデルベースのシステムで、単純な質疑応答を超える機能を提供
- マイクロソフトはBuild 2025イベントでこれを主要戦略として打ち出した
- Ignite 2025ではWord、Excel、PowerPoint向けのCopilotエージェントと、Azure AI FoundryやCopilot Studioを通じたエージェントの開発・展開ツールを公開した
営業実績の低迷と目標修正の事例
- 米国のあるAzure営業部門はFoundry製品売上を50%伸ばすという目標を設定したが、20%未満の営業担当者しか目標達成しなかった
- これにより、今年会計年度の目標が25%成長に下方修正された
- 別のAzure部門ではFoundry売上を2倍に増やすという目標を設定したが、ほとんどが達成できず、50%成長目標に修正された
- これらの結果は、企業顧客がまだAIエージェントツールに高額な費用を払う意向を示していないことを示唆する
CopilotとChatGPTの競争
- Bloombergの報道によると、企業顧客がCopilotよりChatGPTを好む傾向がある
- 製薬会社Amgenは2万人の従業員向けにCopilotを導入したが、多くの従業員がOpenAIのChatGPTを好んだ
- Copilotは主にOutlook、TeamsなどMicrosoft専用業務に限定して使用
- マイクロソフトは販売ノルマの調整についてコメントを拒否した
AIエージェント技術の限界
- AIエージェントの概念はGPT-4公開(2023年)後に登場し、複数のAIモデルが並列で作業を行い、結果を評価する構造を持つ
- しかし現在のモデルは依然として**『ハルシネーション(confabulation)』問題**を抱え、誤った情報を事実のように提示する可能性がある
- 最近のモデルでは誤りは減ったものの、シミュレーション推論(simulated reasoning)ベースのシステムでもなお重大な誤作動の可能性がある
- これらのシステムは基盤モデルのパターンマッチングの限界をそのまま引き継ぎ、未学習の問題や新しい状況で誤った推論を行うリスクが高い
- 現在のAIエージェントの**『脆弱性(brittleness)』**はAGI(人工一般知能)への関心を高める要因となっている
インフラ投資と市場動向
- マイクロソフトはAIインフラ投資を継続的に拡大しており、10月末の第1四半期会計では資本支出349億ドルで過去最高を記録した
- The Informationによれば、マイクロソフトのAI売上のかなりの部分はAI企業向けクラウドインフラレンタルから生じていると指摘される
- 現在、AI市場の投資バブル化の可能性が注目される中、マイクロソフトはまだ本格参入していない企業向けのインフラを構築中である
1件のコメント
Hacker Newsの意見
機械学習が好きな立場からすると、MicrosoftのAI実装はまるで「こちらが代わりに考えてあげます」という感じがする
どのツールも文章や行動を自動補完しようとしてきて、私はひたすら Escape と Backspace を押して元に戻す羽目になる
結果的に時間の無駄で、私が望むことにはまったく最適化されていない。彼らのツールは、まるで「おはようございますチーム、今日はビジネスをします」みたいなメールを書くのにしか役立たないように感じる
Azureサービス間の通信問題を診断するときに使ってみたが、完全に役立たずだった
むしろ別のLLMにざっくり説明したほうが、より良い結果が得られた
しかし摩擦は、フィードバックをやり取りするために不可欠な要素だ。摩擦のない思考は結局 「虚空の中で回転しているだけ」 にすぎない
教育技術でも似た現象を見てきた。学生がロボットからすぐ答えを得るのは効率的だが、その過程で関係形成や動機付けという「摩擦」を失ってしまう
結局こうした文化は、「夕食を作るのは非効率だから栄養素だけ注入しよう」という発想と変わらない
人々も実際にそう使っていて、思考そのものを外注しているような感じだ
昔はユーザーの能力を拡張する「道具」を作っていたのに、今は「魔法の箱」を作ろうとしている
「ユーザーの意図を予測せよ」「魔法のような体験を提供せよ」という言葉があまりにも当たり前になっていて、80〜90年代のデザイナーなら卒倒するレベルだ
業界は「重機の設計者」から「ディズニーランドのアトラクション設計者」へと変わってしまったようなものだ
ユーザーがEscapeを押したり提案を受け入れたりするたびに、Microsoftはより多くの 訓練データ を得る
つまり、わざと頻繁に提案を投げてデータを収集しようとしている戦略なのかもしれない
Microsoftが約束しているレベルの 自律型ビジネスAI は、まだ準備できていないと思う
それでもこうした幻想を売っている理由は単純で、強欲 だからだ。短期的には金になるが、長期的には弱点になるはずだ
結局こうした流れを止めるには、今の既得権構造を壊す 市場の調整 が必要になる
痛みを伴うだろうが、今回はどこが痛むかを私たちが選ぶ番だ
業界全体が同じ方向へ進めば、「うちだけはやらない」とは言いにくいからだ
失敗すれば皆で失敗し、成功すれば出遅れた人だけが損をする構造だ
これは 愚かな強欲 だ
私の周りではほとんど誰もが毎日LLMを使っている
たとえば私の母はChatGPTで レシピ写真をアップロードしてチェックリストを作るアプリ を作った
こういうところが一般ユーザーにとって本当に役立つ部分だ
MicrosoftはCopilotアプリで「文章の改善」「画像生成」「変更点の理解」「データ可視化」といった4つのユースケースを前面に出している
だが実際には、人々が欲しているのは 繰り返し行う作業の自動化 だ
たとえばEpicで毎日同じボタンをクリックする操作をCopilotが学習して代行してくれる、といった具合だ
Microsoft 365 Copilot App
ボタンの意味が変わったらどうなるのか? LLMはユーザーの意図を推論したり状態を管理したりできない
以前のELIZAのように 明確な質問を聞き返す機能 が必要だ
すべての行動を監視するAIエージェントを置くのはやりすぎだ
関連記事: What if software shipped with a software engineer?
むしろDreamhostの無料AIツールでWebサイトを作るほうが、はるかに効率的だった
昨日共有された記事によると、Microsoftは AIソフトウェアの売上目標引き下げ という報道を否定した
Ars Technicaの記事も同じ情報源を引用しているが、Microsoftの反論内容はまだ含まれていない
関連HNスレッド
AIは量次第で薬にも毒にもなりうる
問題は、AIがユーザーを助けるのではなく 置き換えようとする方向 に進んでいることだ
「AI Everywhere」よりも「AI Somewhere」が必要だ
今のように あらゆる場所にAIを無理やり押し込む構造 が問題なのだ
最近のMicrosoftの開発系ブログや、Java、.NET、C++、Python関連のコンテンツもすべてAI中心で回っている
他の話題は今や 優先度を下げられたチケット のように扱われていて、うんざりする
今の状況は、ある種の エンジニアたちの復讐劇 のようにも見える
大企業はエンタープライズ向けCopilotをあちこちに貼り付けてスタートアップと競争しようとしているが、結果は GPUだけ増やしてエンジニアを解雇 する方向に向かっている
解雇された人の中には普通のエンジニアも多かったが、こういうやり方が成功につながるわけではない
Microsoftの Fabric製品 への強制移行を経験した人なら、なぜ売れ行きが悪いのか分かるはずだ
バグだらけの AI First設計 のせいで、内部動作をまったく信用できない
まるで 不透明なエージェントモデル が勝手に結論を出しているような感覚だ
「Confabulate」という語のほうが正確なのに、なぜ「Hallucinate」で定着したのか分からない
AIが事実らしく見える偽の出力をする現象を説明するときの話だ
正しい答えを出しても、それは訓練データに基づく偶然の生成にすぎない
「Confabulate」は記憶の空白を埋めるという意味なので、むしろより不適切だ
だから「guess」のほうがより正確な表現に思える
最初はうまく翻訳しているのに、突然 とんでもないことを延々と話し始める 場合があった
ラテン語の語源では単に「一緒に話す」だったのに、言語ごとに意味が違う進化を遂げている
MicrosoftはOpenAIとの初期パートナーシップで大きな優位を得たが、今では 消費者向けAI市場で存在感が薄い
CopilotはClaudeやChatGPTと並べて語られることがない
それでもOpenAIの持分のおかげで、評価額の面では なお利益を得るだろう
もしClippyがまだ存在していたとしても、それすらCopilotと呼ばれていただろう
残っているのはゲーマーとエンタープライズだけで、企業ユーザーにはデスクトップ構成に対する発言権がほとんどない