エージェント型AI時代を牽引するNVIDIA Vera CPU
NVIDIAは、2026年3月16日に開催されたGTCで、エージェント型AIと強化学習に特化した世界初のプロセッサ「NVIDIA Vera CPU」を発表しました。このVera CPUは、従来のラックスケールCPUと比較して2倍の効率性と50%の高速化を実現し、AIワークロードの性能を大幅に向上させることが期待されています。
リーズニング(推論)とエージェント型AIの進化は、タスクの計画、ツールの実行、データとの対話、コードの実行、結果の検証といった、AIモデルが担う処理の規模、性能、コストに大きな影響を与えます。Vera CPUは、NVIDIA Grace™ CPUの成功を基盤としており、あらゆる規模や業種の組織が大規模なエージェント型AIを実現するための「AIファクトリー」を構築できるよう設計されています。
最高のシングルスレッド性能とコアあたりの帯域幅を持つVeraは、コーディングアシスタント、消費者向けおよびエンタープライズ向けエージェントといった大規模AIサービスにおいて、より高いAIスループット、応答性、効率性を提供する新たなクラスのCPUです。
広範なエコシステムでの採用
Vera CPUの導入に向けてNVIDIAと連携している主要なハイパースケーラーには、Alibaba、CoreWeave、Meta、Oracle Cloud Infrastructureなどが名を連ねています。また、Dell Technologies、HPE、Lenovo、Supermicroをはじめとするグローバルシステムメーカーも、このテクノロジを活用したサーバー設計を進めています。この広範な採用は、VeraがAIワークロード向けの新たなCPU標準となり、AIへのアクセスを民主化し、イノベーションを加速させる可能性を示しています。
NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、「VeraはAIの転換点に登場しました。インテリジェンスがエージェント型になり、リーズニングし、行動できるようになるにつれて、その作業を調整するシステムの重要性が高まっています。CPUはもはやモデルをサポートするだけでなく、モデルを推進する役割を果たしています。画期的なパフォーマンスとエネルギー効率により、Veraはより迅速に思考し、さらなる拡張を実現するAIシステムを実現します」と述べています。
データセンター向けに設計されたVera CPUラック
NVIDIAは、256基の液冷式Vera CPUを統合した新しいVera CPUラックも発表しました。これにより、22,500以上の同時CPU環境を維持し、各環境が独立してフルパフォーマンスで動作することが可能になります。AIファクトリーは、単一のラック内で数万もの同時インスタンスやエージェント型ツールを迅速に展開、拡張できます。
新しいVeraラックは、NVIDIA MGX™モジュラーリファレンスアーキテクチャを採用して構築されており、世界中の80社のエコシステムパートナーによってサポートされています。
NVIDIA Vera Rubin NVL72プラットフォームの一部として、Vera CPUはNVIDIA NVLink™-C2Cインターコネクトテクノロジを介してNVIDIA GPUとペアリングされます。1.8 TB/sのコヒーレント帯域幅は、PCIe Gen 6の7倍に相当し、CPUとGPU間の高速データ共有を実現します。さらに、NVIDIAは、NVIDIA HGX™ Rubin NVL8システム向けに、VeraをホストCPUとして採用した新しいリファレンスデザインを発表しました。これにより、GPUアクセラレーテッドワークロードにおいて、データの移動とシステム制御を連携させます。
高性能とエネルギー効率を両立
Veraは、NVIDIA独自設計による88基のカスタムOlympusコアを搭載し、コンパイラ、ランタイムエンジン、分析パイプライン、オーケストレーションサービスに卓越したパフォーマンスを提供します。各コアはNVIDIA Spatial Multithreadingにより2つのタスクを同時実行でき、多数のジョブを同時実行するマルチテナントAIファクトリーに最適な、一貫した予測可能なパフォーマンスを提供します。
エネルギー効率をさらに向上させるため、VeraはLPDDR5Xメモリをベースとした第2世代のNVIDIAの低消費電力メモリサブシステムを搭載し、最大1.2 TB/sの帯域幅を実現しています。これは汎用CPUと比較して2倍の帯域幅でありながら、消費電力は半分に抑えられています。
Veraは、NVIDIA ConnectX® SuperNICカードおよびNVIDIA BlueField®-4プロセッサと統合され、エージェント型AIに不可欠な高速化されたネットワーキング、ストレージ、セキュリティを実現します。
顧客からの評価と提供予定
ストリーミングデータプラットフォーム大手のRedpandaは、Veraを活用してパフォーマンスを劇的に向上させています。RedpandaのCEO兼創業者であるAlex Gallego氏は、Apache Kafka互換ワークロードのテストにおいて、Veraが他のベンチマークシステムよりも大幅に優れたパフォーマンスを達成し、レイテンシを最大5.5倍低減したと述べています。
Vera CPUの導入を計画している国立研究機関には、ライプニッツスーパーコンピューティングセンター、ロスアラモス国立研究所、ローレンスバークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター(TACC)が含まれます。TACCのハイパフォーマンスコンピューティングディレクター、John Cazes氏は、Veraのコアあたりのパフォーマンスとメモリ帯域幅が科学計算にとって飛躍的な進歩であると評価しています。
また、主要なクラウドサービスプロバイダーとして、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、VultrなどがVera CPUの導入を計画しています。
主要なインフラプロバイダーには、以下の企業が名を連ねています。
-
ASRock Rack
-
ASUS
-
Compal
-
Cisco
-
Dell
-
Foxconn
-
GIGABYTE
-
HPE
-
Hyve
-
Inventec
-
Lenovo
-
MiTAC
-
MSI
-
Pegatron
-
Quanta Cloud Technology (QCT)
-
Supermicro
-
Wistron
-
Wiwynn
NVIDIA Veraは現在量産中であり、今年後半にパートナーから提供される予定です。
AI Workstyle Lab編集部コメント
NVIDIA Vera CPUの登場は、特にエージェント型AIを自社ビジネスに組み込もうとしている企業にとって、大きな意味を持ちます。この高性能かつ高効率なCPUは、複雑なタスクを自律的に実行するAIエージェントの処理能力を飛躍的に向上させるため、顧客対応の自動化、パーソナライズされたサービス提供、データ分析に基づく意思決定支援など、多岐にわたる領域での活用が期待されます。結果として、業務の劇的な効率化や新たな収益源の創出に直結する可能性を秘めており、AI導入のROI(投資対効果)を最大化する上で不可欠な要素となるでしょう。
「AIニュースは追っているけど、何から学べばいいか分からない…」 そんな初心者向けに、編集部が本当におすすめできる無料AIセミナーを厳選しました。
- 完全無料で参加できるAIセミナーだけを厳選
- ChatGPT・Geminiを基礎から体系的に学べる
- 比較しやすく、あなたに合う講座が一目で分かる
ChatGPTなどの生成AIを使いこなして、仕事・収入・時間の安定につながるスキルを身につけませんか?
AI Workstyle LabのAIニュースをチェックしているあなたは、すでに一歩リードしている側です。あとは、 実務で使える生成AIスキルを身につければ、「知っている」から「成果を出せる」状態へ一気に飛べます。
講師:栗須俊勝(AI総研)
30社以上にAI研修・業務効率化支援を提供。“大阪の生成AIハカセ”として企業DXを牽引しています。
- 日々の業務を30〜70%時短する、実務直結の生成AI活用法を体系的に学べる
- 副業・本業どちらにも活かせる、AI時代の「稼ぐためのスキルセット」を習得
- 文章・画像・資料作成など、仕事も趣味もラクになる汎用的なAIスキルが身につく
ニュースを読むだけで終わらせず、
「明日から成果が変わるAIスキル」を一緒に身につけましょう。
本記事は、各社の公式発表および公開情報を基に、AI Workstyle Lab編集部が 事実確認・再構成を行い作成しています。一次情報の内容は編集部にて確認し、 CoWriter(AI自動生成システム)で速報性を高めつつ、最終的な編集プロセスを経て公開しています。
