Sakana AI:マルチエージェントAPI公開
画像: AI生成

Sakana AIが2026年4月24日に公開した「Sakana Fugu」は、単一モデルの性能を競う従来のAI API市場に対し、複数フロンティアモデルを動的に束ねるオーケストレーション層そのものを商用APIとして提供するという新しいアプローチを取る。

技術的な核心は、Sakana Fugu自体が小規模言語モデルであり、LLMを呼び出すことを学習している点にある。さらに自身を再帰的に呼び出す設計により、推論時に計算の深度を調整できるテスト時スケーリングが実現する。この再帰の深さは推論時に変更でき、モデルの再学習は不要だ。技術基盤はICLR 2026に採択された論文「TRINITY」(arXiv:2512.04695)と「Conductor」(arXiv:2512.04388)であり、商用化にあたってさらに改良が加えられている。

ベンチマーク上の結果として、fugu-ultraはGPQA-Dで95.1(Gemini 3.1 highの94.4・Claude Opus 4.6 maxの92.7を上回る)、LCBv6で93.2(GPT 5.4 highの92.1・Opus 4.6 maxの92.4を上回る)、SWEProで54.2(Opus 4.6 maxの53.4・GPT 5.4 highの51.2を上回る)を記録している。なお、SWEProの評価にはmini-swe-agentのスキャフォールドを使用しており、Anthropicが公表しているOpus最大思考モードのスコアについては、評価試行中に頻繁にタイムアウトが発生したためAnthropic公式の報告値を採用している点は留意が必要だ。

日本の開発現場への影響として最も直接的なのは、OpenAI互換エンドポイントへの対応だ。現在GPT・Gemini・Claude APIを利用しているチームは、既存のワークフローをほぼ変えずにSakana Fuguへ接続できる。複数のAPIキーを管理し、タスクごとにモデルを手動で選択していた運用コストを、オーケストレーション層に委譲できる点は実務上の採用障壁を下げる。

一方で、オーケストレーション層が内部で複数プロバイダーのモデルを呼び出す構造は、データの処理経路の透明性という観点で新たな確認事項を生む。日本の企業・行政が業務データを扱う場合、どのモデルがどのデータを処理するかを把握し、各プロバイダーの利用規約・データ保護要件との整合性を確認することが求められる。βテスト段階であるため、価格体系や可用性の詳細は現時点では公開されていない。