- AIツーリングによってソフトウェア開発のコストと必要人員が急減する中で、ソフトウェアビジネスの参入障壁とは結局何なのかという問いが核心になっている
- AIが大半の変換作業を代替できる今、人間が生成した現実世界のデータだけがエージェントAIに複製できない唯一のモートとして残る
- データ市場は「人間生成データ」と「AI生成データ」に**二極化(bifurcation)**しつつあり、前者の価値は上がり、後者はコモディティ化が進んでいる
- 単純な変換ソフトウェア(Excel → PDF → メールのようなワークフロー)はエージェントAIで代替可能だが、大規模かつ継続的なデータ収集とシステム・オブ・レコードは代替できない
- **APIパリティ(UI・REST・MCP全体にわたる機能同等性)**の確保とメタデータの蓄積が、今後のソフトウェアビジネスの中核的な競争力になる
AI時代のソフトウェアのモート(Moat)の変化
- LLMベースのツーリングによって複雑なソフトウェア開発は劇的に容易になったが、完全に解決されたわけではない
- 依然としてオーケストレーター(何を作るべきかを知っている人)が必要であり、これは技術力だけでなく、プロダクトマネジメント・顧客開発・エンジニアリングの交差点にある役割
- 意味のあるものを作るのに10人必要だったものが、3人、2人、あるいは1人へと減っていく方向に進んでいる
- ソフトウェア製品のデプロイと保守が容易になるほど、従来のモート(開発難易度、ドメイン知識の製品化など)はAIに大半を代替される
データの大分岐(The Great Data Bifurcation)
- データの世界は二つの流れに分岐している
- 人間生成データ: ポッドキャストのエピソード、動画、ソーシャルメディア投稿、ブログ記事など、人が直接作ったコンテンツ
- AI生成データ: AI画像、TTS合成音声、完全AI制作の動画、エージェントが作成したスパムメールなど
- 人間データは希少性と固有性によって価値が上昇し、AI生成データはモデルが高速かつ低コストになるほどコモディティへと落ちていく
- 人間データには生成者本人だけが持つ知識全体が含まれており、そのデータを生成できる唯一の主体がその人である
- AIは定義上、人間生成データを作れないため、現実世界で人間によって生成・検証・精製されたデータこそが、今後10年間にわたってソフトウェア起業家にとって唯一信頼できるモートになる
Podscanの事例: データモートの実際
- ポッドキャスト監視サービスPodscanの中核的価値は、RSSフィード収集速度やAPI応答速度ではない
- 実質的な価値は、5,000万件のポッドキャストエピソードの文字起こし(transcription)とAI分析(キーワード・テーマ・感情分析)のデータにある
- 公開データ(ポッドキャストエピソード)を収集し、文字起こし・変換・アクセス可能な形にすることが中核的な付加価値
- ブランド言及の追跡、リアルタイムのトレンド把握、ポッドキャストスポンサーシップの判断など、さまざまな用途に活用できる
- データの**正確性(fidelity)・鮮度(freshness)**を高めるほど、顧客が感じる価値も高まる
- UIが使いにくかったりAPIが制限されていたりしても、顧客はデータへアクセスする方法を見つけ出す — 肝心なのはデータそのもの
- URLを渡すと文字起こし・分析してくれる機能だけなら、Claude Code内のスキルとして2時間以内に代替可能
- 1日に5万件のエピソード収集・文字起こし・分析をエージェントで処理すると、APIコストは1日あたり数万ドル規模になり、事実上不可能
変換型ソフトウェアの脆弱性
- 入力データを受け取り、処理して出力する純粋な変換型(transformative)ソフトウェアはエージェントAIに弱い
- 例: 「ChatGPT、このExcelファイルでレポートを作ってPDFとして書き出し、メールで送って」— 外部サービスなしで自律的に実行可能
- Excelの解析、分析クエリ、PDFレンダリング、メール送信をAI自ら実装するか、既存実装を利用できる
- Excel→レポート→メールのようなワークフロー向けのSaaSビジネスはもはや不要
- 一方で、大規模かつ継続的なデータ収集はエージェントが代替しにくい領域
- エージェントはセッション単位でしか存在しない(Cursor、Claude Code、ChatGPTの会話など)という一時的な性質を持つため
- 常時スキャン・作業するエージェントはトークン消費が莫大で、経済的に非現実的
APIファーストのビジネス戦略
- 今日のソフトウェアビジネスにおいて、APIファースト戦略は最も賢明な選択肢の一つ
- MCPは既存のREST APIの上に載るレイヤーにすぎず、プログラマティックアクセス・MCP・API・Webhookはいずれもコンピュータ間の安定した接続という同じ本質を持つ
- 起業家の間では、**UIとAPIの機能同等性(parity)**に対する需要が高まっている
- UIでできることをAPIでも同じようにすべて実行できるほど、顧客が製品を採用する可能性は高まる
- エージェント時代には、自動化可能性が購買判断の核心的要素として機能する
- Podscanは**プラットフォーム・パリティ追跡ファイル(platform parity tracking file)**を運用している
- すべての機能について、UI・REST API・MCPそれぞれでの対応有無を表で管理
- Claude Codeのサブエージェントがコードベースを分析し、そのファイルを定期的に更新する
- 「ポッドキャスト検索」のような単純な機能から、「ブランド言及キーワードアラート → リスト追加 → Webhookトリガー」のような複雑な機能まで含む
- 人間ユーザー・コンピュータユーザー・エージェントユーザーの3タイプすべてに等しくサービスを提供しなければならない
メタデータがモートになる
- データモートはポッドキャストデータだけに限られない
- プラットフォーム利用時に収集されるメタデータ(投稿時間帯、エンゲージメント率の高い時間、エンゲージメントを促すコンテンツの種類など)が固有のデータモートになる
- 例: Twitter・Facebook投稿ツールであれば、ユーザー行動パターンのデータがモートになる
- データを保有することがモートの半分であり、そのデータにアクセス可能にすることが残り半分
- 自社製品がどのような内部の付加価値データソースを持っているのかを把握し、それを接続しアクセス可能にすることが核心的課題
2件のコメント
AlphaGoの学習をAlphaGo対AlphaGoの自己対戦データで行ったように、LLMの学習もLLMでデータを生成して学習させています。データサンプルがいくつかあればデータ自体も簡単に作れる状況なので、これもまた安全な堀だとは見なしにくいです。
強化学習とディープラーニングの違いにも見えます。決定的なフィードバックループを提供できない領域では、少なくとも現時点では人間のデータが依然として参入障壁になっているようです。