2 ポイント 投稿者 xguru 1 시간 전 | まだコメントはありません。 | WhatsAppで共有
  • LiteLLM に似た 軽量AIゲートウェイ で、Goの単一バイナリのためコンテナイメージが軽く、コールドスタートが速い
  • OpenAI、Anthropic、Gemini、Groq、xAI など 11のプロバイダー を単一のOpenAI互換APIに統合
  • Dockerコンテナ1つにAPIキーを環境変数として渡すだけで、プロバイダー自動検出 によりすぐ利用可能
  • /v1/chat/completions(ストリーミング)、/v1/responses/v1/embeddings/v1/models/v1/files/v1/batches など OpenAI APIの全エンドポイント をサポート
  • ネイティブAPIパススルー 用の /p/{provider}/... も提供し、アップストリーム応答をそのまま転送(ゲートウェイが未対応の機能もそのまま利用可能)
  • 2層のレスポンスキャッシュ を内蔵
    • Layer 1: リクエスト本文ハッシュベースの 完全一致キャッシュ(サブミリ秒で検索)
    • Layer 2: 埋め込みベクトルのKNN検索ベースの セマンティックキャッシュ(反復の多いワークロードで60〜70%のヒット率)
    • ベクターバックエンドとして Qdrant、pgvector、Pinecone、Weaviate をサポート
  • 管理 ダッシュボードUI を内蔵し、トークン使用量、コスト追跡、監査ログ、プロバイダー状態、モデルオーバーライドなどを確認可能
  • Prometheusメトリクス、監査ロギング、ガードレールパイプライン などのオブザーバビリティ機能を内蔵(それぞれ環境変数で有効化)
  • GOMODEL_MASTER_KEY によるAPI認証、ストレージバックエンドは SQLite・PostgreSQL・MongoDB を選択可能
  • 同一プロバイダーの 複数インスタンス登録 も接尾辞付き環境変数(例: OPENAI_EAST_API_KEY)でサポート
  • ストレージバックエンドとして SQLite(デフォルト)、PostgreSQL、MongoDB を選択できるため、小規模ではインストール直後に利用でき、大規模ではDBの切り替えだけで拡張可能
  • 0.2.0ロードマップ: インテリジェントルーティング、DeepSeek V3・Cohere の追加、user_path別の予算管理、クラスターモードなどを予定
  • MITライセンス

まだコメントはありません。

まだコメントはありません。