- 全面刷新されたSiriアップグレードが社内テストの問題でスケジュールに支障
- 当初iOS 26.4に含まれる予定だった機能は、iOS 26.5およびiOS 27に分散して順次展開される見込み
- 個人データ活用およびApp Intentsベースの音声操作機能が特に不安定
- 一部のリクエストでAppleの技術ではなく、ChatGPT連携に自動切り替えされる問題も発生
- Appleは新アーキテクチャLinwoodとGoogle Geminiベースのモデルで、長期的なAI移行を推進
Siriアップグレード日程に支障
- 2024年6月に発表された全面刷新Siriで、最近の社内テストで問題が見つかった
- 当初の計画では、2026年3月に投入予定だったiOS 26.4に含めるスケジュールだった
- 現在は一部機能をiOS 26.5(5月)およびiOS 27(9月)に分散する案を検討中
- テスト過程でクエリ処理エラーと応答遅延の問題が発生
- 一部のリクエストを適切に処理できなかったり、応答時間が過度に長くなったりする現象が報告された
中核機能の遅延要因
-
個人データ拡張活用機能
- Siriが過去のメッセージなど個人データにアクセスしてリクエストを実行する機能を搭載予定
- 例: 友人が共有したポッドキャストを過去のテキストメッセージから検索し、そのまま再生
- iOS 26.5の内部ビルドには、この機能の「preview」トグルが存在
- 初期リリースが不完全または安定していない可能性をユーザーに知らせる方式が検討されている
-
App Intentsの高度な音声操作
- 1回の音声コマンドで画像検索、編集、連絡先送信まで行う高度なアプリ内制御機能を開発中
- 社内テストの結果、この機能があらゆる状況で安定して動作しない問題が確認された
- 速く話した場合、Siriがユーザーの発話を途中で遮るバグも報告された
- 複雑なクエリ処理時に精度の問題と長時間の処理遅延が発生
ChatGPT連携への依存問題
- 新しいSiriがApple独自技術ではなく、既存のOpenAI ChatGPT連携機能に自動切り替えされる事例が発生
- 独自技術で処理できるはずのリクエストでも、外部連携が使われるケースが報告された
技術アーキテクチャの変化
- 刷新版Siriは、Linwoodというまったく新しいアーキテクチャを基盤に構築
- Appleの大規模言語モデル基盤であるApple Foundations Modelsを活用
- ここにAlphabet傘下Google Geminiチームの技術の一部を統合中
- iOS 26.5のテスト版には未公開機能が2種類含まれる
- Web検索ツール: PerplexityやGeminiに似た形で、Web情報を統合した回答を提供
- 画像生成機能: Image Playgroundエンジンを基盤とするが、安定性の問題がある
iOS 27と次世代Siri(コードネームCampo)
- iOS 27、iPadOS 27、macOS 27でチャットボット型Siriを導入する計画
- Googleサーバー基盤と高度なGeminiカスタムモデルを活用
- コードネーム「Campo」プロジェクトとして、AIをOS全体に統合
- スタンドアロンのSiriアプリをテスト中
- OS全体の機能制御や、ファイルなど個人データの探索機能を強化する予定
- Mail、Calendar、Safariなど主要な標準アプリに新しいSiriエンジンを統合する計画
AIインフラとチップ戦略
- CEOのTim Cookは社内ミーティングで、AI向けデータセンターチップの開発に言及
- Apple siliconベースのカスタムデータセンターソリューションを構築中
- プロジェクト名Baltraとして、高性能クラウドAIチップの開発が進行中
プライバシー保護戦略
- パーソナライズAI開発が遅れている理由の1つとして、強力なプライバシーポリシーがある
- Craig Federighiは、ユーザーデータがサーバーに記録され学習に使われる既存の業界慣行との差別化を強調
- 可能な限りデバイス上で処理するか、プライバシー保護されたサーバーを活用
- 実際のユーザーデータではなく、ライセンス済みデータと合成データを活用
1件のコメント
Hacker Newsの意見
Appleはスマートフォン時代には完璧なタイミングで参入したが、次の技術転換期には出遅れるリスクがある。特にAI分野ではすでに競合より大きく遅れている
だからこそVision Proや自社シリコンに投資している。その戦略のおかげで、Mac MiniやMac StudioはローカルAIモデル実行に最適化されたデバイスとして浮上した
Cookの失敗はマーケティング面であり、その部分はCEOの責任だ
AppleはAIを急ぐよりも、自社のエコシステムに合った一貫したビジョンを見つけるほうが賢明だ
AppleはWeb、検索、ソーシャル、メタバースなど多くのトレンドで「出遅れた」と評されてきたが、結局は着実に成功してきた
Appleは他社のように顧客データを犠牲にしようとせず、そのおかげで長期的には信頼を得るはずだ
Google Pixel 10のAI機能失敗事例を見ると、Appleの慎重なアプローチのほうがむしろ賢い
関連記事: Android Authority, Ars Technica
Siriは結局、タイマー設定用の音声ボタン程度にしか役に立たない
Siriは投資家向けのチェックボックス機能にすぎず、本当に必要なAIは別の形になるはずだ
もしAppleがSiriをChatGPT型サービスに変えるなら、それはiCloud加入促進のためである可能性が高い
それでもHomePod中心の音声操作はかなり便利だ
LLM以前には不可能だったが、今は文脈理解が可能な時代だ
もっと賢くなってくれたら本当にうれしい
驚くべきことにGoogle Homeも依然としてひどい。Geminiベースに変わったが、むしろ冗長になり、基本的な質問すら処理できない
統合されたソフトウェアバージョンを作ろうとしたが、結局は旧型デバイス対応を諦めざるを得ず、その結果ユーザー体験がめちゃくちゃになった
運転中に「このレストランはランチやってる?」と聞いたら、「Web検索結果を見つけた」と答えるだけだった
位置情報、地図、メニューデータ、LLM要約機能まで揃っているのに、文脈活用がまったくできていない
Siriはできることをわざとやらないようにすら感じる
QAがまともに機能していないか、組織が非効率なのだと思う
ただしオンデバイス処理にこだわるぶん限界もある。一方で、ほとんどのユーザーは個人情報を気にせずクラウドに渡している
そのためSiriが相対的に遅れて見えるのだ