Hugging Faceは2026年4月29日、サーバーレス推論基盤のDeepInfraをInference Providersに正式統合したと公式ブログで発表した。DeepInfraは100以上のモデルを抱え、LLM・画像生成・動画生成・埋め込みまで広くカバーするが、今回のHF統合における初期対応は会話・テキスト生成タスクに絞られている。利用可能なLLMとしてDeepSeek V4、Kimi-K2.6、GLM-5.1などが挙げられており、画像・動画・埋め込みは今後追加される予定だ。
開発者視点での最大の意義は、HFトークン1つで複数のプロバイダーを横断的に切り替えられる統一インターフェースにDeepInfraが加わったことだ。huggingface_hub(Python、1.11.2以上)および@huggingface/inference(JS)から`provider`パラメータを指定するだけで呼び出し先を変更でき、既存コードへの影響は最小で済む。Pi・OpenCode・Hermes Agentsなどエージェントハーネス側にも統合済みで、エージェント実装のバックエンド差し替えも容易になる。
コスト構造も明確で、HFルーティング経由の場合でもDeepInfra標準料金のみが請求され、HFによる上乗せマージンは発生しない。加えてPROプラン契約者には月2ドル分の推論クレジットが付与され、これをDeepInfraを含む各プロバイダーに横断利用できる。新興オープンウェイトLLMの採用検証を行いたい日本の開発チームにとって、自前GPUを立てる前の一次検証環境としての価値が高い。一方で、どのプロバイダーにどのデータが渡るかの管理責任は利用側に残るため、ログ設計と規約確認は実装者側のタスクとして残る。