- Walmartは既存のAIソリューションを購入せず、自社のAI Foundryプラットフォーム Elementを通じてAIアプリを開発しており、150万人の従業員がこれを活用中
- LLMに依存しない構造により、クエリごとに最適なモデルを選択でき、コスト効率と性能最適化を同時に実現
- AIアプリをプロジェクトではなく製品のように大量生産する「Foundryモデル」を導入し、開発速度を飛躍的に向上
- 勤務スケジュール、リアルタイム翻訳、対話型AI、在庫管理など5つの中核アプリを迅速に投入し、アプリ開発サイクルを数週間単位へ短縮
- サプライチェーンデータを中心に運用とフィードバックを結びつけ、運用データをリアルタイムに分析・反映して継続的に改善されるAIアプリを構築中
- WalmartはAIを「導入するソフトウェア」ではなく「内在化された能力」へ転換し、これによって競合との格差を継続的に拡大している
Walmart isn’t buying enterprise AI solutions — they’re creating them
自社AIプラットフォーム Element の開発
- Walmartは外部のAIベンダーではなく、社内AI Foundryを通じてElementプラットフォームを開発
- このプラットフォームは、従来のソフトウェア開発速度を超えるペースでAIアプリケーションを生み出す
- 150万人の従業員のうち毎週90万人が利用し、1日300万件のクエリを処理するほどの大規模な拡張性を示している
- リアルタイム翻訳は44言語に対応し、シフト勤務の計画時間は90分から30分に短縮
- これは単一アプリの成功ではなく、産業化されたAI開発方式の効果を示す初期シグナルである
LLM-agnostic 設計思想とオープンソースベースの設計
- Elementは特定の大規模言語モデル(LLM)に依存せず、柔軟にモデルを選択できる構造を持つ
- 利用目的やクエリの種類に応じて、費用対効果が最も高いLLMを自動選択する
- プラットフォーム構造にはオープンソース統合オプションが標準搭載されており、拡張性と柔軟性が高い
The first wave reveals the principles of the foundry model
最初のFoundryアプリ生産事例
- 次の5つの主要アプリケーションが、Foundry方式で同一プラットフォーム上で「製造」された
- AIスケジュール管理: 管理者1人あたり1日90分かかっていた業務計画を30分に短縮し、サプライチェーンデータに基づいて作業の優先順位を決定
- リアルタイム翻訳: 44言語をサポートし、言語ペアに応じて最適なモデルを自動選択
- 対話型AI: 1日3万件の問い合わせに応答し、反復作業については人の介入なしで解決
- ARベースの VizPick: RFID + コンピュータビジョン技術により在庫精度**85%→99%**を達成
- MyAssistant: 社内文書とデータを分析するアシスタント
- 共有インフラと統合データパイプラインにより、重複開発を防止
- すべてのアプリは同一のデプロイパターン、品質管理、フィードバック構造を共有し、生産工程のように標準化されている
反復可能な生産体制
- Elementは各アプリを独立したプロジェクトとしてではなく、組み立て式の製品のように生産する
- データサイエンティストが仕様を提出すると、プラットフォームがモデル選定からインフラ、デプロイまでを自動処理
- 以前のアプリで検証済みのコンポーネントを再利用できるため、新規アプリ開発の摩擦はほとんどない
How Walmart’s foundry model changes development economics
AI開発エコノミクスの転換
- 従来の企業AIは、ベンダー評価、契約交渉、統合を繰り返し、時間とコストを消費していた
- 一方でElementは、複数のアプリ開発リクエストを並列処理し、無駄を最小化する
- 生産性と速度はリーン生産レベルに達し、アプリはアイデア段階から即座に開発へ移行する
- スケジュール計画、対話型AI、AR在庫システムなど、いずれもElement基盤で迅速に構築されている
Supply chain data becomes development fuel
サプライチェーンデータをアプリ開発の燃料に転換
- Elementはサプライチェーンシステムと接続され、トラック到着、購買パターン、従業員フィードバックなどを自動収集する
- これらのデータは、作業優先順位の決定、消費者行動の予測、地域条件に応じたカスタムモデルの配備に活用される
- 運用の複雑性を統合データへ変換することで、店舗ごとのカスタマイズアプリ開発が可能になる
Walmart has a model arbitrage strategy
モデル・アービトラージ戦略
- ElementはAIモデル間の性能とコストの比較をリアルタイムで行い、最適な経路でクエリを処理する
- クエリごとの複雑さに応じて、標準またはプレミアムモデルへ自動ルーティングする
- 新モデルが公開されると即座にテストとデプロイが可能で、既存モデルの性能が向上すれば自動適用される
- 例: 翻訳ツールは言語ペアに応じて異なる最適モデルを選択する
How Walmart integrates real-time feedback
リアルタイムフィードバック統合構造
- 従業員によるアプリ利用は単なる消費ではなく、改善シグナルを生成する仕組みとして設計されている
- 対話型AIは3万件のクエリを通じてモデル性能、クエリの種類、満足度を測定し、フィードバックとして反映する
- 新規アプリは以前のアプリのフィードバックを学習した状態で投入され、ローンチ初期から高い性能を提供可能
- そのために、高度なデータパイプライン、モデルバージョン管理、デプロイオーケストレーションの構造を備えている
Why internal Foundries beat external platforms
内部Foundryが外部プラットフォームを上回る理由
- 外部プラットフォームは汎用性のために機能を一般化するため、特定組織に完全には適合しない
- Walmartは210万人の従業員の共通業務、用語、目標に合わせてプラットフォームを最適化している
- 新たな要件が生まれれば、ベンダー交渉なしで即座に開発でき、アイデアから製品までを素早くつなげられる
Assessing the competitive implications
競争上の含意
- Foundry方式では、アプリを作るほどプラットフォーム自体が強化され、ユーザーインタラクションはモデル選択を改善し、各デプロイは次のアプリの生産基準となる
- 競合他社は
- 自社プラットフォーム構築という莫大な投資を引き受けるか
- 外部ソリューションの限界を受け入れるか
- 何もしないことで格差がさらに拡大するリスクを負うことになる
- 例: スケジュールアプリ1つだけでも、管理者1人あたり1日1時間を節約でき、全国規模では数百万ドルの削減効果が生じる
Lessons learned from Walmart’s enterprise AI Foundry blueprint
Foundry設計の4大原則
- 1. AIモデルは交換可能な部品のように扱うべき
- LLM非依存構造によりベンダーロックインを防ぎ、最適化を継続可能にする
- 2. データアクセス統合を優先する
- ElementはLLMの世界知識とWalmartの内部データを統合する
- 3. AI開発を産業化すべき
- Foundryモデルを通じて開発 → デプロイ → 反復の標準工程化を実現
- 4. 最初からフィードバックを設計に組み込む
- フィードバックループの内蔵により使うほど性能が向上するアプリ構造を実現
Walmart just created the enterprises’ new imperative
企業AIの新たな転換点
- WalmartはAIを「導入」したのではなく、AIを作る能力そのものを確保した
- AIを個別ソフトウェアではなく組み立て可能な製品群として捉えている
- 従業員とのインタラクションがシステムをさらに賢くし、デプロイが進むほどプラットフォームは洗練される
- AI成功の核心はモデル選択ではなく、組織のAI生産能力の構築にある
- WalmartはAIをソフトウェアではなく戦略的資産と定義した最初期の企業の1つとして位置づけられる
1件のコメント
意義のある動きですね