DeepSeek(中国AI企業):V4プレビューリリース
画像: AI生成

DeepSeekが2026年4月24日にプレビューリリースしたDeepSeek-V4は、1.6兆パラメータ(うち49Bを活性化するMoE構成)と100万トークンのコンテキストウィンドウを組み合わせた大規模言語モデルだ。

技術的な核心は新ハイブリッド注意機構にある。CSA(Chunked Sparse Attention)とHCA(Hybrid Chunk Attention)を組み合わせることで、前世代のV3.2と比べて推論FLOPsを27%削減し、KVキャッシュを10%にまで圧縮した。KVキャッシュの削減は長文脈処理時のGPUメモリ消費に直結するため、同一ハードウェアで扱える実効コンテキスト長が大幅に伸びる。

ベンチマーク面では、SWE Verified(コーディングエージェント評価)で80.6%を記録し、Anthropicの最上位モデルであるClaude Opus-4.6-Maxの80.8%とほぼ同等の水準に達した。Terminal Bench 2.0では67.9スコアを達成しており、長時間・多ステップのターミナル操作タスクへの適性も数値で示されている。

価格設定では、軽量版のV4-Flashが入力$0.14・出力$0.28(百万トークンあたり)という水準で提供される。エージェント用途では大量のトークンを消費するため、この価格差は月次コストに直接影響する。

ライセンスはMITで、商用利用・改変・再配布が明示的に許可されている。日本企業にとっては、クローズドAPIへの依存を避けてオンプレミスやプライベートクラウドに展開する際の法的根拠が明確になる点が重要だ。ただし中国企業が開発したモデルである点は、政府調達や金融・医療など規制の厳しい領域での採用審査において追加確認が求められる場面がある。

Claude CodeやOpenCodeなど主要エージェントフレームワークへの最適化が明示されており、既存のエージェント開発環境からバックエンドモデルを切り替える際の移行コストが低い点も、開発者コミュニティでの注目を集めている理由の一つだ。