NVIDIAとGoogle Cloudは2026年4月22日、エージェントAIとフィジカルAI(ロボティクス・デジタルツイン)の両領域にわたるフルスタック基盤の協業拡大を発表した。
最大の注目点はNVIDIA Vera Rubin NVL72を搭載したA5Xインスタンスの提供だ。前世代比で推論コストを最大10分の1、電力あたりトークンスループットを最大10倍に改善するとされており、大規模AIワークロードの経済性を根本から変える水準の性能向上となる。クラスター規模も単一サイトで最大8万GPU、マルチサイトで最大96万GPUに対応しており、これまで自社データセンターでしか実現できなかった超大規模推論がクラウド上で構成可能になる。
規制産業への影響という観点では、Confidential G4 VMによるBlackwell GPUの機密コンピューティングがクラウド初提供となる点が重要だ。機密データを暗号化したままGPU上で処理できる仕組みは、医療・金融・公共分野でクラウドGPU活用を阻んできた技術的障壁を低減する。ただし日本の個人情報保護法や医療情報ガイドライン、金融庁のクラウド利用ガイドラインへの適合可否は個別の法的確認が必要であり、本発表だけで規制クリアとはならない点は留意が必要だ。
Google Distributed Cloud上でGeminiがNVIDIA Blackwell/Blackwell Ultra GPUで動作するプレビューも開始された。これはオンプレミス環境でもBlackwellの性能を活用できる選択肢が生まれることを意味し、データをクラウドに出せない組織にとっての選択肢が広がる。
フィジカルAI領域では、NVIDIA OmniverseとIsaac SimがGoogle Cloud Marketplaceで提供され、ロボティクスシミュレーションがクラウドネイティブで実施可能になった。製造業や物流業でのデジタルツイン構築において、オンプレミスGPUサーバーを用意せずに検証を開始できる環境が整う。
すでにOpenAIがChatGPTの大規模推論にGoogle Cloud上のNVIDIA GB300/GB200 NVL72システムを利用しており、CrowdStrikeがNeMoライブラリとNemotronモデルを活用してサイバーセキュリティ向け合成データ生成・脅威検知を実施している。これらの商用実績は、今回の発表が概念実証段階ではなく本番運用フェーズの話であることを示している。
日本企業にとっての直接的な影響は、まずコスト面での意思決定機会だ。推論コスト10分の1という水準は、LLM活用プロダクトの損益分岐点を動かし、これまで採算が合わなかったユースケースの再評価を促す。次に規制産業での本番導入検討の根拠が生まれる点、そしてロボティクス・製造DXでのシミュレーション環境のクラウド移行が現実的な選択肢になる点が挙げられる。