NVIDIA Vera Rubinが切り拓く、次世代エージェント型AIの地平
AI技術の進化は目覚ましく、私たちの生活やビジネスに大きな変革をもたらしています。特に近年注目されているのが、人間のように状況を判断し、自律的に行動する「エージェント型AI」です。このエージェント型AIの最先端を切り開くべく、NVIDIAは革新的な「NVIDIA Vera Rubinプラットフォーム」を発表しました。
2026年3月16日、NVIDIAはGTCにおいて、このVera Rubinプラットフォームが次世代のエージェント型AIをけん引し、世界最大規模のAIファクトリーを拡張するための7つの新しいチップがすでに量産体制に入っていることを明らかにしました。本記事では、この画期的なプラットフォームがAIの未来にどのような影響を与えるのか、その詳細をAI初心者の方にも分かりやすい言葉で徹底解説します。
NVIDIA Vera Rubinプラットフォームとは?
NVIDIA Vera Rubinプラットフォームは、AIのあらゆる段階をサポートするために特別に設計された、まさに「AIのためのスーパーコンピューター」です。このプラットフォームの核となるのは、以下の7つの新しいチップです。
-
NVIDIA Vera CPU
-
NVIDIA Rubin GPU
-
NVIDIA NVLink™ 6 Switch
-
NVIDIA ConnectX®-9 SuperNIC
-
NVIDIA BlueField®-4 DPU
-
NVIDIA Spectrum™-6 Ethernet スイッチ
-
NVIDIA Groq 3 LPU
これらのチップは単体で機能するだけでなく、まるでオーケストラの各楽器が調和するように、1つの巨大なAIスーパーコンピューターとして連携するように設計されています。これにより、AIモデルの学習(事前トレーニング)、学習後の調整(ポストトレーニング)、テストや性能評価(テストタイムスケーリング)、そして実際にAIがリアルタイムで判断を下す(エージェント型推論)といった、AI開発のあらゆるフェーズが最適化されます。
NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、「Vera Rubinは、世代を超えた飛躍です。画期的な7つのチップ、5つのラック、1つの巨大なスーパーコンピューターが、AIのあらゆる段階を支えるために構築されています。Vera Rubinがけん引する史上最大のインフラ構築を開始したことで、エージェント型AIの転換期が到来しました」と述べています。この言葉からも、Vera RubinがAIの歴史において極めて重要なマイルストーンとなることがうかがえます。
AIインフラの進化とVera Rubinの重要性
近年、AIインフラは急速な進化を遂げています。以前は個別のチップや単体のサーバーでAIを動かしていましたが、今では複数のサーバーをラックに統合し、さらにそれらのラックを連携させて「PODスケール」という大規模なシステムとして展開する「AIファクトリー」へと発展しています。
このような進化は、スタートアップ企業から大企業、政府機関まで、あらゆる規模の組織に劇的なパフォーマンス向上とコスト効率の改善をもたらしています。Vera Rubinプラットフォームは、このAIインフラの最先端をいくものであり、AIへのアクセスを広げ、エネルギー効率を高めながら、世界で最も要求の厳しいAIワークロードに対応できるよう設計されています。
主要なAI開発企業も、Vera Rubinプラットフォームに大きな期待を寄せています。
AnthropicのCEOであるDario Amodei氏は、「企業や開発者は、ますます複雑なリーズニング、エージェント型のワークフロー、そしてミッションクリティカルな意思決定にClaudeを利用しています。それには、その進化のスピードに追従できるインフラが必要です。NVIDIA Vera Rubinプラットフォームは、お客様が信頼を寄せる安全性と信頼性を高めながら、提供し続けるためのコンピューティング、ネットワーキング、システム設計を私たちに与えてくれます」と語っています。
また、OpenAIのCEOであるSam Altman氏も、「NVIDIAインフラは、AIの最先端を継続的に推進するための基盤です。NVIDIA Vera Rubinにより、より強力なモデルとエージェントを大規模に実行し、数億人のユーザーのために高速で信頼性の高いシステムを提供できるようになります」とコメントしており、Vera Rubinが次世代のAIモデル開発に不可欠な存在であることを示唆しています。
Vera Rubinを構成する主要なラックとチップの詳細
Vera Rubinプラットフォームは、単一のチップだけでなく、複数のチップを統合した「ラック」と呼ばれるシステムで構成されています。これらのラックが連携することで、AIの性能を最大限に引き出します。
NVIDIA Vera Rubin NVL72 ラック

Vera Rubin NVL72ラックは、NVIDIAの最新技術が凝縮された中核的なコンポーネントです。このラックには、高速な「NVLink 6」という技術で接続された72基のRubin GPUと36基のVera CPUが搭載されています。さらに、データ転送を高速化する「ConnectX-9 SuperNIC」や、データ処理を効率化する「BlueField-4 DPU」も統合されています。
このNVL72ラックの特筆すべき点は、その驚異的な効率性です。NVIDIAの以前のプラットフォームであるBlackwellと比較して、わずか4分の1のGPU数で大規模なAIモデル(エキスパート混合モデル)をトレーニングできるとされています。これにより、AIモデルの学習にかかるコストを10分の1に削減し、さらに電力あたりの推論処理能力(ワットあたり推論スループット)は最大で10倍に向上します。これは、AI開発における時間とコストを大幅に削減できることを意味します。
NVL72は、世界中の大規模なAIファクトリー向けに設計されており、「NVIDIA Quantum-X800 InfiniBand」や「Spectrum-X Ethernet」といった高速ネットワーク技術と連携することで、大規模なGPUクラスター全体で高い稼働率を維持しながら、トレーニング時間と総所有コストの削減に貢献します。
NVIDIA Vera CPU ラック
エージェント型AIや強化学習といった分野では、GPUシステムで生成されたAIモデルの結果をテストしたり、検証したりするために、たくさんのCPUベースの環境が必要になります。GPUが主に計算を行うのに対し、CPUはこれらの環境の管理や、より汎用的な処理を担います。
NVIDIA Vera CPUラックは、「NVIDIA MGX」というインフラストラクチャの上に構築された、液体冷却式の高密度なシステムです。最大で256基のVera CPUを搭載し、非常に高い処理能力を提供します。このラックは、拡張性(必要に応じて規模を大きくできること)とエネルギー効率に優れており、大規模なエージェント型AIの実現を後押しします。
また、このVera CPUラックは「Spectrum-X Ethernet」ネットワーキングと統合されており、AIファクトリー全体でCPU環境を緊密に同期させることができます。GPUコンピューティングラックと組み合わせることで、大規模なエージェント型AIや強化学習のための強固なCPU基盤を提供し、従来のCPUと比較して2倍の効率と50%の高速化を実現すると期待されています。
NVIDIA Groq 3 LPX ラック
NVIDIA Groq 3 LPXは、「アクセラレーテッド コンピューティング」(特定の処理を高速化する技術)における新たな節目となる製品です。エージェント型AIシステムが要求する「低レイテンシ」(処理の遅延が少ないこと)と「大規模コンテキスト」(一度に多くの情報を処理できること)に対応するように設計されています。
LPXとVera Rubinを組み合わせることで、両プロセッサの性能を最大限に引き出し、1兆個ものパラメータを持つ巨大なAIモデルにおいて、電力あたりの推論スループットを最大35倍も向上させることができます。これにより、AIサービスプロバイダーの収益機会が最大10倍に拡大する可能性を秘めています。
大規模なAIシステムでは、複数のLPU(Language Processing Unit)が連携し、あたかも1つの巨大なプロセッサであるかのように機能します。256基のLPUプロセッサを搭載したLPXラックは、128GBのオンチップSRAM(高速メモリ)と640TB/sという膨大な帯域幅を持ちます。Vera Rubin NVL72と連携して展開されることで、Rubin GPUとLPUはAIモデルのすべての層を共同で計算し、AIが言葉や情報を生成する速度(出力トークンごとのデコード)を加速させます。
このLPXアーキテクチャは、1兆パラメータモデルと100万トークンのコンテキスト(AIが一度に考慮できる情報の量)に最適化されており、電力、メモリ、コンピューティング全体の効率を最大化します。ワットあたりのスループットとトークンパフォーマンスの向上により、超プレミアムなAI推論という新たな領域が切り開かれ、すべてのAIプロバイダーの収益機会を拡大することでしょう。このLPXラックは完全に液冷式でMGXインフラの上に構築され、今年後半に提供開始予定です。
NVIDIA BlueField-4 STX ストレージ ラック
AIファクトリーでは、膨大なデータを効率的に保存し、高速にアクセスできるストレージシステムが不可欠です。NVIDIA BlueField-4 STXストレージラックは、AIに特化したストレージインフラであり、AIシステム全体(POD)でGPUのメモリをシームレスに拡張することができます。
このラックは、「BlueField-4」というチップを搭載し、NVIDIA Vera CPUやNVIDIA ConnectX-9 SuperNICと組み合わせることで、「CMX」と呼ばれるシステムを形成します。CMXは、LLM(大規模言語モデル)やエージェント型AIのワークフローで生成される大量の「Key-Value (KV) キャッシュデータ」を保存・取得するために最適化された、高速な共有レイヤーを提供します。KVキャッシュデータは、AIが以前に処理した情報を記憶し、再利用するために使われる重要なデータです。
BlueField-4ストレージラックの性能をさらに高めるのが、新しいDOCAフレームワークである「NVIDIA DOCA Memos™」です。この技術は、専用のKVキャッシュストレージ処理を可能にし、一般的なストレージアーキテクチャと比較して、AIの推論スループットを最大5倍向上させるとともに、電力効率を大幅に改善します。その結果、AIシステム全体で広範なコンテキスト(文脈)処理が可能になり、AIエージェントとの高速な対話や、より拡張性の高いAIサービス、そしてインフラ全体の稼働率向上を実現します。
Mistral AIの共同創業者兼CTOであるTimothée Lacroix氏は、「NVIDIA BlueField-4 STXラックスケール コンテキスト メモリ ストレージ システムは、Mistral AIのエージェント型AIの取り組みを指数関数的に拡大していく上で不可欠な性能向上を実現してくれます。AIエージェントのメモリに特化して設計された新たなストレージ階層を提供することで、STXは、膨大なデータセットを対象に推論を行う際にも、Mistral AIのモデルが一貫性と高速性を維持できるようにする、理想的なソリューションとなります」と述べています。
詳細はこちらのリンクから確認できます: NVIDIA BlueField-4 STX
NVIDIA Spectrum-6 SPX Ethernet ラック
AIファクトリーのような大規模なシステムでは、データが複数のラック間を高速に行き交う必要があります。この「東西トラフィック」と呼ばれるデータ移動を高速化するために設計されたのが、NVIDIA Spectrum-6 SPX Ethernetラックです。
このラックは、「Spectrum-X Ethernet」または「NVIDIA Quantum-X800 InfiniBand」スイッチで構成することができ、大規模なラック間接続において「低レイテンシ」(データ転送の遅延が少ないこと)と「高スループット」(一度に大量のデータを転送できること)を実現します。
さらに、このSpectrum-X Ethernet Photonicsは「コパッケージド オプティクス」という技術を搭載しており、従来の光通信機器(プラガブル トランシーバー)と比較して、最大5倍の光電力効率と10倍のレジリエンス(システムの耐久性や回復力)を実現しています。これにより、AIファクトリー全体のネットワークがより安定し、効率的に稼働することが可能になります。
レジリエンスとエネルギー効率の向上
NVIDIAは、Vera Rubinプラットフォームの発表と同時に、データセンターインフラパートナーと協力し、「DSXプラットフォーム」を公開しました。この新しいDSXプラットフォームには、以下の重要な機能が含まれています。
-
DSX Max-Q: AIファクトリー全体の電力を動的に調整する機能です。これにより、電力供給に制限があるデータセンターでも、AIインフラの展開を最大30%増加させることができます。限られた電力リソースを最大限に活用し、より多くのAIシステムを稼働させることが可能になります。
-
DSX Flexソフトウェア: AIファクトリーを電力網にとって「柔軟な資産」へと変えるソフトウェアです。これにより、これまで活用されていなかった100ギガワットもの電力リソースを開放し、データセンターのエネルギー効率を向上させます。
また、NVIDIAは「Vera Rubin DSX AI Factory リファレンス デザイン」というブループリントも公開しました。これは、コンピューティング、ネットワーキング、ストレージ、電力、冷却といったAIファクトリーのあらゆる要素を緊密に統合するための設計図です。このリファレンスデザインに従うことで、電力あたりのAI処理能力(ワットあたりのトークン数)と全体の有用な処理量(グッドプット)を最大化し、システムのレジリエンスを高め、AIシステムが実際に稼働するまでの時間を短縮することができます。
このアーキテクチャは、エネルギー効率を向上させ、AIファクトリーが継続的な高負荷ワークロードの下でも稼働時間を最大化しながら確実に拡張できるよう設計されています。
詳細はこちらのリンクから確認できます: Vera Rubin DSX AI Factory リファレンス デザイン
幅広いエコシステム サポート
NVIDIA Vera Rubinプラットフォームは、幅広い業界パートナーからの強力なサポートを受けています。Vera Rubinベースの製品は、今年後半にパートナーから提供開始される予定です。
主要なクラウドプロバイダーであるAmazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureをはじめ、NVIDIA Cloud PartnerであるCoreWeave、Crusoe、Lambda、Nebius、Nscale、Together AIといった企業がこの新しいプラットフォームを活用します。
また、Cisco、Dell Technologies、HPE、Lenovo、Supermicroといったグローバルなシステムメーカーや、Aivres、ASUS、Foxconn、GIGABYTE、Inventec、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynnといった企業からも、Vera Rubin製品をベースにした幅広いサーバーが提供される見込みです。
さらに、Anthropic、Meta、Mistral AI、OpenAIといった先進的なAIラボやモデル開発者も、NVIDIA Vera Rubinプラットフォームを活用し、より大規模で高性能なAIモデルのトレーニングを目指しています。これにより、AIはより低レイテンシかつ低コストで、より長い文脈を理解し、多様な形式のデータ(テキスト、画像、音声など)を扱える「マルチモーダル」なシステムを提供できるようになるでしょう。
関連リンク:
NVIDIAの詳細については、NVIDIA公式ウェブサイトをご覧ください。
まとめ
NVIDIA Vera Rubinプラットフォームは、7つの革新的なチップと、これらを統合した高性能なラックシステムにより、エージェント型AIの新たな時代を切り拓く重要な存在です。AIモデルのトレーニングからリアルタイム推論まで、AI開発のあらゆる段階を最適化し、これまでのAIシステムの限界を大きく超える可能性を秘めています。
このプラットフォームは、AIインフラの効率性を飛躍的に向上させ、より複雑で自律的なAIシステムの実現を加速します。また、エネルギー効率の改善や電力リソースの有効活用にも貢献し、持続可能なAI開発をサポートします。
世界中の主要なクラウドプロバイダー、システムメーカー、AIラボがVera Rubinプラットフォームを支持し、その導入を進めることで、エージェント型AIはビジネス、研究、そして私たちの日常生活において、これまで想像できなかったような変革をもたらすことでしょう。NVIDIA Vera Rubinプラットフォームが、AIの未来をどのように変えていくのか、今後の動向に大きな期待が寄せられています。

