1ラックあたり推定$180 million(約280億円)、出荷開始は2026年7月——NVIDIAの次世代AIプラットフォーム「Vera Rubin」が、いよいよ本番フェーズに入る見通しです。直前まで取り沙汰されていた設計・スペック変更の噂は事実とかけ離れていたとされ、量産スケジュールはむしろ前倒し基調にあるとWccftechが報じています。
6月にトライアル生産、7月から北米CSPへ出荷
台湾紙Economic Dailyの業界筋情報を引用するかたちで報じられた内容によると、NVIDIAはODMパートナーとともにVera Rubinの量産バージョンを確定済みです。スケジュールは複数フェーズで進行する見通しです。
- 2026年6月: トライアル生産(試作量産)を開始
- 2026年7月: 北米のクラウドサービスプロバイダー(CSP)へ初期出荷開始
- Q3 2026: Foxconn・Quanta・Wistronらパートナーによる本格量産・大量出荷
- 2026年下半期: フル展開フェーズへ
初期出荷先として名前が挙がっているのは、Microsoft、Google、Amazon、Meta、Oracleの5社です。いずれも世界トップクラスのAIインフラ投資を続けるハイパースケーラーで、Vera Rubinの初期供給がここに集中する構図だと伝えられています。
なお、Vera Rubin向けのチップは、TSMCが3nmプロセスで2026年初頭から量産を開始しているといいます。
噂は後退、3nm量産はすでに開始
数日前まで業界では、Vera Rubinの設計やスペックに変更が入るのではという噂が流れていました。これはBlackwell GPUサーバーの発売前に流れた噂と類似したパターンだったといいます。
しかし今回の報道では、NVIDIAがすでに量産バージョンを確定済みであることから、こうした噂は「事実とかけ離れていた、もしくはすでに修正済みの古い情報に基づいていた可能性が高い」と整理されています。NVIDIAはBlackwellのときと同様、サプライチェーンパートナーの実行力を背景に、出荷前の課題を短期間で潰しきってきたかたちです。
Jensen Huang CEOがComputex 26のキーノートで、これら5社とのパートナーシップを軸にVera Rubinを大きく打ち出す可能性が高いと見られています。
ラックあたり約$180M、市場規模は$1兆規模に届く可能性
Vera Rubinはハードウェアとしてもスケールが桁違いです。
| 項目 | 内容 |
|---|---|
| 構成チップ数 | 7チップ構成 |
| Rubin GPU向けメモリ | HBM4 |
| Vera CPU向けメモリ | SOCAMM2 LPDDR5X 最大256GB |
| 製造プロセス | TSMC 3nm |
| AIサーバーラック単価(推定) | 約$180 million(約280億円) |
| NVIDIAの市場リーチ(推定) | 少なくとも$1 trillion(約155兆円)規模 |
1ラックで約$180M(約280億円)という単価は、AIインフラがすでに「サーバー単位」ではなく「データセンター単位」で投資される段階に入っていることを象徴しています。HBM4の本格採用やVera CPU側のSOCAMM2 LPDDR5X最大256GB構成も、メモリベンダーにとって追い風となる仕様です。
So What? — ユーザー・AIサービスへの跳ね返り
NVIDIAはVera Rubinによって、10年で演算性能を4,000万倍にするという目標を掲げているといいます。これは単なる数字の話ではなく、生成AIの応答速度・推論コスト・新サービスが世に出るペースに直結します。1ラック約280億円という単価を主要CSPが受け入れていること自体、AIサービスの裏側で動く計算資源の規模感が一段とスケールアップしていることを示しており、ユーザーが普段触れるチャットAIや画像生成、エージェント機能の刷新サイクルがさらに加速する可能性があります。
現時点での見立て——噂は後退、立ち上げは計画線
今回の情報は公式発表ではなく、Economic Dailyが業界筋を引用するかたちで報じた内容であり、日付や顧客リストはあくまで見通しです。とはいえ、設計変更の噂が後退し、TSMCでの3nm量産がすでに始まっているという具体性のあるシグナルが揃っており、Vera Rubinの立ち上げが計画通りに進んでいる可能性は高いと見ていいでしょう。続報はComputex 26でのJensen Huang氏のキーノートで確認するのが現実的です。
HBM4サプライチェーン——Micron・Samsung・SK hynixの三つ巴
Vera Rubinの心臓部となるHBM4は、メモリ大手3社の供給競争が一気に過熱しています。Micronは2026年第1四半期にVera Rubin向けに設計されたHBM4 36GB 12Hの量産出荷を開始し、11Gb/s超のピン速度と2.8TB/s超の帯域幅、HBM3E比で2.3倍の帯域・20%以上の電力効率改善を達成しています。
3社の最新ポジション
- Samsungの第6世代HBM4も量産入りし、Vera Rubin向けに設計されたものとGTC 2026で発表されました。11.7Gbps/pinを実現し、HBM4Eは16Gbps/pin・4.0TB/sを掲げています。
- SK hynixは2026年のNVIDIA向けHBM総供給の半分超を占める見込みで、SamsungはVera Rubin向けHBM4をリードする構図と報じられています。
- 3社いずれもVera Rubin向け供給ラインを確立しており、調達リスクの分散が進んでいます。
メモリ調達がVera Rubinの立ち上げ速度を左右する最大の変数となっており、3社の競合体制が確保されたことは、量産フェーズへの追い風となります。
Vera Rubin NVL72の構成——CES 2026で開示された性能とCPX計画の修正
CES 2026で発表されたVera Rubinは、ラックレベルで前世代を大きく超えるスペックが開示されています。
| 項目 | Vera Rubin NVL72 |
|---|---|
| GPU構成 | 72 Rubin GPU(144ダイ)+ 36 Vera CPU |
| 推論性能 | 3.6 EFLOPS |
| 訓練性能 | 2.5 EFLOPS |
| HBM4合計 | 20.7TB / 帯域1.6PB/s |
| NVLink帯域 | GPUあたり3.6TB/s、ラック全体で260TB/s |
Rubin GPU単体では3360億トランジスタとBlackwellの1.6倍に達し、推論で5倍の性能、ワット性能では8倍を謳っています。CPU側の「Vera」は88個のカスタムOlympusコア、Armv9.2互換、NVLink-C2C接続を備え、エージェント型推論向けに高い電力効率を実現しています。
なお、長文コンテキスト推論向けに位置付けられていた「Rubin CPX」については、GTC 2026でロードマップから外され、LPU/LPXに置き換えられています。元記事の7チップ構成からCPX周辺の役割が見直されている点は、今後の続報で要確認です。
Q&A
Q. なぜ「7月」という時期に出荷が設定されているのですか? 報道では、6月にODMパートナーとのトライアル生産(試作量産)を経て、7月から北米CSPへの初期出荷に移るとされています。試作量産で歩留まりや構成を確定させたうえで、Q3 2026の本格量産・大量出荷につなげる流れと整理されており、7月はいわばその中継点という位置付けです。
Q. 最初に手にするのはどの企業ですか? Microsoft、Google、Amazon、Meta、Oracleの5社が初期出荷先として挙げられています。いずれも北米の大手クラウドサービスプロバイダーです。
Q. 設計変更の噂はどうなったのですか? NVIDIAがODMパートナーと量産バージョンをすでに確定したと報じられており、設計・スペック変更の噂は事実とかけ離れていた、または古い情報に基づいていた可能性が高いと整理されています。
出典
- Wccftech — NVIDIA Squashes Vera Rubin Rumors, First Shipments Rolling Out In July To Major AI Customers With Mass Production In 2H 26
- Micron Technology — Micron in High-Volume Production of HBM4 Designed for NVIDIA Vera Rubin
- VideoCardz — Samsung and Micron confirm HBM4 enters mass production for NVIDIA Vera Rubin