NEW お知らせ

【VPS】アプリケーションセットアップ機能にて「LiteLLM」提供開始のお知らせ

2026年1月27日(火)より、KAGOYA CLOUD VPS において、複数の大規模言語モデル(LLM)を OpenAI API互換で統一的に管理・運用できる OSSプロキシ「LiteLLM」の一発セットアップ機能を提供開始いたします。

本機能は、AI活用を進める情報システム部門が直面する「ベンダーごとに仕様が違う」「モデルが乱立して管理負荷が増大」「安全な社内利用環境を作りたい」といった課題を解決します。

 

【提供開始日】
2026年1月27日(火)

 

【対象サービス】
KAGOYA CLOUD VPS

 

 情シスの“本音の課題”に応える機能

1. モデル乱立の収束と API 仕様統一

  • OpenAI・Anthropic・Google・Bedrock・ローカルLLM を OpenAI API 1本に統一
  • ベンダーごとに異なる認証方式・エンドポイント・パラメータ差異を吸収
  • アプリ側の改修最小限でモデル切替が可能

→ 「どの部署が何を使っているのか管理できない」問題を解決

 

2. セキュアで閉じた実行環境(VPS単独動作)

  • 組織の内外ネットワークを汚さない 独立環境
  • APIキー・接続先管理を VPS 内に集約
  • 不特定多数が外部クラウドへ直接接続する構造を抑止

→ “APIキーの乱散らかり”や“Shadow IT化”を防止

 

3. 運用負荷の軽減と障害耐性の向上

  • LiteLLM 標準の ロードバランス・フェイルオーバー
  • モデル障害時に自動で別ベンダーへ切替可能
  • ログの一元化・レート制御・使用量把握をサーバ側で制御

→ 「問い合わせ対応のたびに障害調査」「ベンダー依存のトラブル」が減少

 

4. コスト管理と最適化

  • 高性能モデル → 安価モデルの 自動切替ポリシー
  • トークン量、用途別(FAQ / 要約 / 生成)ルーティング
  • 将来的に社内GPUサーバーやローカルLLMを統合運用可能

→ 毎月請求の予測しづらさ・コスト高騰への不安を軽減

 

導入メリット

  • AI基盤の標準化
    プロダクト・部署ごとにバラバラなモデル選択を中央で統制できる。
  • 安全な閉域内での AI 活用
    SaaS APIキーを各部署に配らず、安全に鍵管理が可能。
  • 将来の LLM 乗換えが容易
    ベンダー仕様変更や価格改定の影響を最小化。
  • トラブルシュートが楽
    LLMアクセスログがサーバ側に集約され、原因切り分けがしやすい。

 

アプリケーションセットアップ ご利用手順

当社コントロールパネルからインスタンス作成時 (または初期化時) にOSとアプリケーションを選択するだけで、すぐにご希望の環境を簡単に構築していただけます。

◇インスタンス作成手順 (Linux OS)
https://support.kagoya.jp/vps/manual/index.php?action=artikel&cat=16&id=55&artlang=ja

 

KAGOYA CLOUD VPS | 圧倒的高性能!