1 ポイント 投稿者 GN⁺ 2026-02-13 | 1件のコメント | WhatsAppで共有
  • 全面刷新されたSiriアップグレードが社内テストの問題でスケジュールに支障
  • 当初iOS 26.4に含まれる予定だった機能は、iOS 26.5およびiOS 27に分散して順次展開される見込み
  • 個人データ活用およびApp Intentsベースの音声操作機能が特に不安定
  • 一部のリクエストでAppleの技術ではなく、ChatGPT連携に自動切り替えされる問題も発生
  • Appleは新アーキテクチャLinwoodとGoogle Geminiベースのモデルで、長期的なAI移行を推進

Siriアップグレード日程に支障

  • 2024年6月に発表された全面刷新Siriで、最近の社内テストで問題が見つかった
    • 当初の計画では、2026年3月に投入予定だったiOS 26.4に含めるスケジュールだった
    • 現在は一部機能をiOS 26.5(5月)およびiOS 27(9月)に分散する案を検討中
  • テスト過程でクエリ処理エラーと応答遅延の問題が発生
    • 一部のリクエストを適切に処理できなかったり、応答時間が過度に長くなったりする現象が報告された

中核機能の遅延要因

  • 個人データ拡張活用機能

    • Siriが過去のメッセージなど個人データにアクセスしてリクエストを実行する機能を搭載予定
      • 例: 友人が共有したポッドキャストを過去のテキストメッセージから検索し、そのまま再生
    • iOS 26.5の内部ビルドには、この機能の「preview」トグルが存在
      • 初期リリースが不完全または安定していない可能性をユーザーに知らせる方式が検討されている
  • App Intentsの高度な音声操作

    • 1回の音声コマンドで画像検索、編集、連絡先送信まで行う高度なアプリ内制御機能を開発中
    • 社内テストの結果、この機能があらゆる状況で安定して動作しない問題が確認された
    • 速く話した場合、Siriがユーザーの発話を途中で遮るバグも報告された
    • 複雑なクエリ処理時に精度の問題と長時間の処理遅延が発生

ChatGPT連携への依存問題

  • 新しいSiriがApple独自技術ではなく、既存のOpenAI ChatGPT連携機能に自動切り替えされる事例が発生
    • 独自技術で処理できるはずのリクエストでも、外部連携が使われるケースが報告された

技術アーキテクチャの変化

  • 刷新版Siriは、Linwoodというまったく新しいアーキテクチャを基盤に構築
  • Appleの大規模言語モデル基盤であるApple Foundations Modelsを活用
    • ここにAlphabet傘下Google Geminiチームの技術の一部を統合中
  • iOS 26.5のテスト版には未公開機能が2種類含まれる
    • Web検索ツール: PerplexityやGeminiに似た形で、Web情報を統合した回答を提供
    • 画像生成機能: Image Playgroundエンジンを基盤とするが、安定性の問題がある

iOS 27と次世代Siri(コードネームCampo)

  • iOS 27、iPadOS 27、macOS 27でチャットボット型Siriを導入する計画
    • Googleサーバー基盤と高度なGeminiカスタムモデルを活用
  • コードネーム「Campo」プロジェクトとして、AIをOS全体に統合
  • スタンドアロンのSiriアプリをテスト中
    • 過去の会話管理機能を含む
  • OS全体の機能制御や、ファイルなど個人データの探索機能を強化する予定
  • Mail、Calendar、Safariなど主要な標準アプリに新しいSiriエンジンを統合する計画

AIインフラとチップ戦略

  • CEOのTim Cookは社内ミーティングで、AI向けデータセンターチップの開発に言及
    • Apple siliconベースのカスタムデータセンターソリューションを構築中
  • プロジェクト名Baltraとして、高性能クラウドAIチップの開発が進行中

プライバシー保護戦略

  • パーソナライズAI開発が遅れている理由の1つとして、強力なプライバシーポリシーがある
  • Craig Federighiは、ユーザーデータがサーバーに記録され学習に使われる既存の業界慣行との差別化を強調
  • 可能な限りデバイス上で処理するか、プライバシー保護されたサーバーを活用
  • 実際のユーザーデータではなく、ライセンス済みデータと合成データを活用

1件のコメント

 
GN⁺ 2026-02-13
Hacker Newsの意見
  • Bloomberg記事のアーカイブリンク
  • Steve JobsとTim Cookのリーダーシップの違いは、Cookが最適化には優れている一方でビジョンに欠ける点にある
    Appleはスマートフォン時代には完璧なタイミングで参入したが、次の技術転換期には出遅れるリスクがある。特にAI分野ではすでに競合より大きく遅れている
    • AppleはAIそのものを自前で解決する必要はない。彼らの強みはハードウェア・ソフトウェア・素材・インターフェースデザインの融合にある
      だからこそVision Proや自社シリコンに投資している。その戦略のおかげで、Mac MiniやMac StudioはローカルAIモデル実行に最適化されたデバイスとして浮上した
      Cookの失敗はマーケティング面であり、その部分はCEOの責任だ
    • 問題はリーダーシップよりも公の約束にある。Jobsは準備ができた製品だけを発表したが、Cookは株主を意識して先に約束してしまう
      AppleはAIを急ぐよりも、自社のエコシステムに合った一貫したビジョンを見つけるほうが賢明だ
    • JobsとCookの比較はもう陳腐だ。Jobsは世代を代表するアイコンであり、Cookがその水準に達しないのは当然だ
      AppleはWeb、検索、ソーシャル、メタバースなど多くのトレンドで「出遅れた」と評されてきたが、結局は着実に成功してきた
    • これはリーダーシップの問題ではなく、製品仕様とエコシステムの一貫性の問題だ
      Appleは他社のように顧客データを犠牲にしようとせず、そのおかげで長期的には信頼を得るはずだ
    • Apple Mapsの失敗以降、Cookは未完成の機能を急いで出さないという教訓を得た
      Google Pixel 10のAI機能失敗事例を見ると、Appleの慎重なアプローチのほうがむしろ賢い
      関連記事: Android Authority, Ars Technica
  • Siriは長い間放置されてきた自業自得の失敗だ。当初は最先端だったが、その後は進化が止まった。Intelのように資産を過剰に食い潰した結果だ
    • とはいえ、過去の取り組みだけでは現在のオープンソースLLMの水準には追いつけなかっただろう
    • Siriにはすでに大勢のエンジニアが投入されていた
  • 現在のLLMのハルシネーション問題を考えると、Appleが望む水準のSiriを作れるのか疑問だ
    • 私はひとまず音声認識精度さえ上がれば満足できそうだ。今は基本的な機能ですら遅れている
    • 今のSiriと何が違うのかわからない。CarPlayで見当違いの返答をしたり、設定を無視してメッセージを送信したりと、基本的な信頼性が足りない
    • Appleは決して中途半端な製品を出さない。だからこそユーザーは今でも信頼している
    • しかし2026年にこの水準ではあまりに失望だ。ChatGPTやClaudeと比べるとユーザー体験の差が大きすぎる
      Siriは結局、タイマー設定用の音声ボタン程度にしか役に立たない
    • AIがいまだに間違った要約を出しているのを見ると、Appleが品質基準を下げる可能性は低い
  • Siri買収直後に勤務していたデータサイエンティストだ。今の結果はまったく驚きではない
    • 何があったのかもっと聞きたい、という反応があった
  • 未完成の状態で出すより、完成度を高めるほうがよいと思う
    • ただ、今のAppleはソフトウェアの勘を失ったように見える。Siriはその兆候にすぎない
  • SiriをなくしたからといってiPhoneの販売に大きな打撃があるとは思えない
    Siriは投資家向けのチェックボックス機能にすぎず、本当に必要なAIは別の形になるはずだ
    もしAppleがSiriをChatGPT型サービスに変えるなら、それはiCloud加入促進のためである可能性が高い
    • 私は毎日HomeKit操作用にSiriを使っている。ただし言語認識エラーは頻繁に起きる
      それでもHomePod中心の音声操作はかなり便利だ
    • 運転する人にとっては、Siriのような本物のパーソナルアシスタント型AIには大きな価値があるだろう
      LLM以前には不可能だったが、今は文脈理解が可能な時代だ
    • 家全体をSiri中心で設計してある。照明、ブラインド、音楽、TVまですべて音声で操作している
      もっと賢くなってくれたら本当にうれしい
    • iPhoneを長年使ってきたが、Siriはアラーム設定以外ではほとんど失敗する。音楽再生も半分の確率でしか成功しない
    • Siriはアクセシビリティツールとしても重要だ。すべてのユーザーがその恩恵を受ける
  • Appleが低品質のLLMで高品質のSiriを作ろうとするのは不可能なアプローチだ
    驚くべきことにGoogle Homeも依然としてひどい。Geminiベースに変わったが、むしろ冗長になり、基本的な質問すら処理できない
    • Google社内のエンジニアによれば、問題はデバイスエコシステムの断片化だった
      統合されたソフトウェアバージョンを作ろうとしたが、結局は旧型デバイス対応を諦めざるを得ず、その結果ユーザー体験がめちゃくちゃになった
    • 私のスマホのGeminiはタイマー設定すらできない。16年前より退化した感じだ
    • 同じiPhone上でもChatGPTは音声認識が90%以上正確なのに、Siriはいまだに音声文字起こしの品質がひどい
  • iPhone 16 ProをAI機能への期待で買ったのに、Siriは相変わらずWeb検索しかしない
    運転中に「このレストランはランチやってる?」と聞いたら、「Web検索結果を見つけた」と答えるだけだった
    位置情報、地図、メニューデータ、LLM要約機能まで揃っているのに、文脈活用がまったくできていない
    Siriはできることをわざとやらないようにすら感じる
    • Apple WatchのSiriはさらに深刻だ。いつもWebページを開き、小さな画面で読む前に閉じてしまう
      QAがまともに機能していないか、組織が非効率なのだと思う
  • Appleが新機能を遅らせているのは品質基準のためである可能性が高い
    ただしオンデバイス処理にこだわるぶん限界もある。一方で、ほとんどのユーザーは個人情報を気にせずクラウドに渡している
    そのためSiriが相対的に遅れて見えるのだ
    • しかし今のAppleの品質基準は昔ほどではない。テキスト編集ガラス素材の問題を見てもわかる