- エッジデバイス上でAIモデルを直接動作させる技術を段階的に学べる無料のオープンソース教育コース
- 目標は、AIモデルをクラウドではなくデバイス上で直接実行することで、遅延の最小化、プライバシー保護、コスト削減、ネットワーク依存の低減を実現すること
- 学習者は、SLMのデプロイ、マルチエージェントシステムの構築、ローカルRAGパイプラインの実装、モデルルーティングなどの実務型プロジェクトを完成させながら、Windows・モバイル・組み込み・ハイブリッド環境へのデプロイ技術を習得できる
- Llama.cpp, Microsoft Olive, OpenVINO, Apple MLX などの主要な最適化ツールによる**性能改善(最大85%の高速化、モデルサイズ75%削減)**の方法を、実習中心で説明
- カリキュラム(全体の想定時間: 36–45時間)
- 0. EdgeAI の概要と学習目標の紹介(入門 : 1–2時間)
- 1. エッジAIの基本概念と事例(初級 : 3–4時間)
- 2. SLMモデルの構造とファミリー(初級 : 4–5時間)
- 3. ローカルおよびクラウドへのデプロイ実習(中級 : 4–5時間)
- 4. モデル最適化ツールキット(Llama.cpp など)(中級 : 5–6時間)
- 5. SLMOps とファインチューニング(上級 : 5–6時間)
- 6. AIエージェントと Function Calling(上級 : 4–5時間)
- 7. クロスプラットフォーム実装(上級 : 3–4時間)
- 8. Foundry Local サンプルプロジェクト(エキスパート : 8–10時間)
まだコメントはありません。