NVIDIAは2026年4月24日、OpenAIのGPT-5.5を搭載したCodexをGB200 NVL72ラックスケールシステム上で稼働させ、自社の1万人超の社員に全社展開したことを公式ブログで発表した。
注目すべきは展開範囲の広さだ。エンジニアリング部門だけでなく、法務・マーケティング・財務・HRといった非技術部門にも導入されており、AIエージェントが特定職種の専用ツールではなく全社インフラとして機能していることを示している。
インフラ面では、GB200 NVL72が従来世代比でトークンあたりコストを35分の1、電力メガワットあたりのトークン出力を50倍に改善したことが明示されている。この数値はフロンティアモデルの大規模推論運用が経済的に現実的になったことを意味し、これまでコスト面で躊躇していた企業の導入判断を後押しする根拠となる。実際の業務効果として、デバッグサイクルが数日から数時間に短縮され、数週間を要していた実験が一晩で完了するケースも報告されている。
セキュリティ設計も具体的に開示されている。ゼロデータ保持ポリシー、読み取り専用アクセス権限、専用クラウドVMサンドボックスの3層構造を採用しており、機密情報を扱う規制産業が参照できる統制モデルが示された形だ。金融・医療・法務分野でAIエージェント導入を検討している企業にとって、このセキュリティ設計は具体的な実装参考例として機能する。
NVIDIAとOpenAIの協業は10年以上の歴史を持ち、OpenAIはNVIDIAシステムへの10GW超の導入を約束している。今回の発表はその協業の成果を自社内で実証し、外部に公開するという戦略的な意味合いも持つ。他企業のCIOやCTOが全社AI展開の意思決定を行う際、NVIDIAの事例は規模・セキュリティ・コスト効率の三点で直接参照される可能性が高い。