NVIDIA Vera CPUがエージェント型AIの未来を拓く!高性能と省エネを両立する新世代プロセッサの全貌を徹底解説

はじめに:AIの進化を支えるNVIDIA Vera CPUの誕生

近年、人工知能(AI)の進化は目覚ましく、私たちの生活やビジネスに大きな変革をもたらしています。特に、エージェント型AIと呼ばれる新しいタイプのAIが注目を集めており、これはまるで人間のように自律的に考え、行動するAIを指します。例えば、特定のタスクを計画したり、ツールを使ったり、データとやり取りしたり、さらにはコードを実行して結果を検証したりといった複雑な処理をこなすことが期待されています。

このような高度なAIの能力を引き出すためには、それを支える強力なコンピューティング基盤が不可欠です。そこで、NVIDIAは2026年3月16日、エージェント型AIと強化学習の時代に向けて特別に設計された世界初のプロセッサ「NVIDIA Vera CPU」を発表しました。この革新的なCPUは、従来のデータセンター向けCPUと比較して2倍の効率性50%の高速化を実現するとされており、AIの未来を大きく変える可能性を秘めています。

サーバーラック

エージェント型AIとは?そしてVera CPUが解決する課題

エージェント型AIとは、単に指示されたタスクを実行するだけでなく、状況を理解し、目標達成のために自ら行動を計画・実行するAIのことです。例えば、オンラインで旅行の計画を立てたり、複雑なデータ分析を行ったり、プログラミングアシスタントとしてコードを生成・修正したりと、多岐にわたる応用が期待されています。

このようなエージェント型AIが高度な「リーズニング」(推論・思考)能力を発揮し、複雑なタスクを効率的にこなすためには、膨大なデータを高速に処理し、同時に多数のAIモデルを動かす能力が求められます。しかし、従来のCPUでは、このような大規模なデータ処理、AIトレーニング、そしてエージェント型推論といった要求に対して、性能やエネルギー効率の面で限界がありました。

NVIDIA Vera CPUは、この課題を解決するために開発されました。大規模なエージェント型AIを動かす「AIファクトリー」を構築する際、システムのスケーラビリティ(拡張性)、パフォーマンス(性能)、そしてコストは非常に重要な要素となります。Vera CPUは、最高のシングルスレッド性能とコアあたりの帯域幅を提供することで、コーディングアシスタントや消費者向け・企業向けエージェントなどの大規模AIサービスにおいて、より高いAIスループット(処理量)、応答性、そして効率性を提供します。

NVIDIA Vera CPUに関する詳細情報は、以下のリンクから確認できます。
NVIDIA Vera CPU

NVIDIA Vera CPUの革新的な特徴と圧倒的な性能

NVIDIA Vera CPUは、NVIDIA Grace™ CPUの成功を基盤とし、その技術をさらに進化させています。Grace™ CPUの詳細については、以下のリンクをご覧ください。
NVIDIA Grace™ CPU

Olympusコアと高性能メモリサブシステム

Vera CPUの心臓部には、NVIDIA独自設計の88基のカスタムOlympusコアが搭載されています。これらのコアは、コンパイラ(プログラムを機械語に変換するソフトウェア)、ランタイムエンジン(プログラムを実行する環境)、分析パイプライン、オーケストレーションサービス(複数のシステムを連携させる仕組み)といった処理に卓越したパフォーマンスを提供します。さらに、各コアはNVIDIA Spatial Multithreading技術により2つのタスクを同時に実行できるため、多数のジョブを同時に処理するマルチテナントAIファクトリーに最適であり、一貫した予測可能なパフォーマンスを実現します。

エネルギー効率の面でも、Vera CPUは優れています。LPDDR5Xメモリをベースとした第2世代のNVIDIA低消費電力メモリサブシステムを搭載しており、最大1.2 TB/s(テラバイト/秒)という高い帯域幅を実現しながら、汎用CPUと比較して消費電力は半分に抑えられています。この高帯域幅と低消費電力の組み合わせは、エージェント型AIや強化学習に共通する極限の使用状況下で、より高速なAI応答を可能にする「NVIDIA Scalable Coherency Fabric」と相まって、システム全体のパフォーマンスを向上させます。

NVIDIA GPUとの強力な連携

Vera CPUは、NVIDIAのGPU(画像処理装置)と連携することで、さらにその真価を発揮します。NVIDIA Vera Rubin NVL72プラットフォームの一部として、Vera CPUはNVIDIA NVLink™-C2Cインターコネクトテクノロジを介してNVIDIA GPUとペアリングされます。このNVLink™-C2Cは、PCIe Gen 6(データ転送規格の一つ)の7倍にあたる1.8 TB/sのコヒーレント帯域幅(CPUとGPU間でデータを高速かつ一貫性をもって共有できる技術)を提供し、CPUとGPU間の高速データ共有を実現します。

また、NVIDIAはNVIDIA HGX™ Rubin NVL8システム向けに、VeraをホストCPUとして採用した新しいリファレンスデザイン(標準設計)を発表しました。これにより、GPUが高速処理を行うワークロードにおいて、データの移動とシステム制御を効率的に連携させることが可能になります。

ネットワーキング、ストレージ、セキュリティの強化

エージェント型AIの運用には、高速なデータ通信、効率的なデータ保存、そして強固なセキュリティが不可欠です。Vera CPUは、NVIDIA ConnectX® SuperNICカードNVIDIA BlueField®-4プロセッサと統合されており、これらの要素を強化します。これにより、顧客はプラットフォーム全体で統一されたソフトウェアスタックを維持しながら、特定のワークロードに最適化された環境を構築できます。

「AIファクトリー」を現実にするVera CPUの柔軟な設計

Vera CPUは、あらゆるデータセンターのニーズに合わせて柔軟に設定できるよう設計されています。NVIDIAは、256基の液冷式のVera CPUを統合した新しいVera CPUラックを発表しました。これにより、22,500以上の同時CPU環境を維持し、各環境が独立してフルパフォーマンスで動作することが可能になります。この設計により、AIファクトリーでは、単一のラック内で数万もの同時インスタンスやエージェント型ツールを迅速に展開し、拡張できます。

この新しいVeraラックは、NVIDIA MGX™モジュラーリファレンスアーキテクチャを採用して構築されており、世界中の80社以上のエコシステムパートナーによってサポートされています。これにより、システムの導入が容易になり、幅広い環境での利用が促進されます。

NVIDIA MGX™

システムパートナーは、デュアルソケットCPUサーバー構成とシングルソケットCPUサーバー構成の両方でVera CPUサーバーを提供します。これにより、強化学習、エージェント型推論、データ処理、オーケストレーション、ストレージ管理、クラウドアプリケーション、ハイパフォーマンスコンピューティングといった多岐にわたるワークロードに最適なソリューションが提供されます。

広がり続けるエコシステム:Vera CPUが描く未来

NVIDIA Vera CPUは、その発表と同時に、すでに幅広い業界からの支持を集めています。多くの企業や研究機関がVera CPUの導入に向けてNVIDIAと協力しており、そのエコシステムは日々拡大しています。

主要な顧客とパートナー

Vera CPUの導入に向けてNVIDIAと連携している主要なハイパースケーラー(大規模クラウド事業者)には、Alibaba、CoreWeave、Meta、Oracle Cloud Infrastructureが名を連ねています。また、Dell Technologies、HPE、Lenovo、Supermicroをはじめとするグローバルシステムメーカーも、このテクノロジを活用したサーバー設計を進めています。この広範な採用は、Vera CPUが開発者、スタートアップ、官民機関、企業にとって最も重要なAIワークロード向けの新たなCPU標準となり、AIへのアクセスの民主化とイノベーションの加速を推進することを示しています。

Dell Technologiesに関する情報はこちらです。
Dell Technologies

導入事例と期待の声

ストリーミングデータプラットフォーム大手のRedpandaは、Vera CPUを活用してパフォーマンスを劇的に向上させていると報告しています。RedpandaのCEO兼創業者であるAlex Gallego氏は、「RedpandaはNVIDIA Veraをテストしたところ、ベンチマークした他のシステムよりも大幅に優れたパフォーマンスを達成し、レイテンシを最大5.5倍低減しました。Veraは、コアあたりのメモリ増加とオーバーヘッドの削減というCPUアーキテクチャの新たな方向性を表し、お客様がリアルタイムストリーミングワークロードをこれまで以上に拡張し、新たなAIおよびエージェント型アプリケーションを切り拓くことを可能にします」と述べています。

また、Vera CPUの導入を計画している国立研究機関には、ライプニッツ スーパーコンピューティング センター、ロスアラモス国立研究所、ローレンス バークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター (TACC) が含まれます。TACCのハイパフォーマンスコンピューティングディレクター、John Cazes氏は、「Veraのコアあたりのパフォーマンスとメモリ帯域幅は、科学計算にとって飛躍的な進歩です。今年後半にHorizonのCPUユーザーへVeraベースのノードを提供できることを楽しみにしています」と期待を寄せています。

Vera CPUの導入を計画している主要なクラウドサービスプロバイダーには、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultrなどが挙げられます。

さらに、Vera CPUを採用している主要なインフラプロバイダーには、以下の企業が含まれます。

  • Aivres (Aivres)

  • ASRock Rack

  • ASUS

  • Compal

  • Cisco

  • Dell

  • Foxconn

  • GIGABYTE

  • HPE

  • Hyve

  • Inventec

  • Lenovo

  • MiTAC

  • MSI

  • Pegatron

  • Quanta Cloud Technology (QCT)

  • Supermicro

  • Wistron

  • Wiwynn

NVIDIA Vera CPUの提供開始と今後の展望

NVIDIA Vera CPUは現在量産中であり、今年後半にパートナーから提供される予定です。

NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、Vera CPUの発表に際し、次のように述べています。「Veraは、AIの転換点に登場しました。インテリジェンスがエージェント型になり、リーズニングし、行動できるようになるにつれて、その作業を調整するシステムの重要性が高まっています。CPUはもはやモデルをサポートするだけでなく、モデルを推進する役割を果たしています。画期的なパフォーマンスとエネルギー効率により、Veraはより迅速に思考し、さらなる拡張を実現するAIシステムを実現します」。

このコメントは、Vera CPUが単なる高性能なチップに留まらず、AIの進化そのものを加速させる重要な役割を担うことを示唆しています。Vera CPUの登場により、AIファクトリーの構築がさらに容易になり、より多くの企業や研究者が大規模なエージェント型AIの恩恵を受けられるようになるでしょう。

NVIDIAのGTC基調講演のリプレイやセッションもぜひご覧ください。

まとめ

NVIDIA Vera CPUは、エージェント型AI時代の到来を告げる画期的なプロセッサです。従来のCPUを大きく上回る効率性と高速化を実現し、AIファクトリーの構築を強力に推進します。独自設計のOlympusコア、低消費電力のLPDDR5Xメモリ、NVIDIA GPUとの強力な連携、そして柔軟なシステム設計により、Vera CPUは大規模なAIワークロードに最適なソリューションを提供します。

すでに多くのハイパースケーラー、システムメーカー、研究機関、クラウドサービスプロバイダーがVera CPUの採用を表明しており、そのエコシステムは急速に拡大しています。NVIDIA Vera CPUは、AIの民主化とイノベーションの加速を促し、私たちが想像する以上の未来を切り拓くことでしょう。AI技術の進化は止まることなく、Vera CPUがその中心的な役割を果たすことに期待が高まります。

NVIDIAに関する詳細はこちらです。
NVIDIA

タイトルとURLをコピーしました