ニュース

NVIDIA、HBM3e搭載版GH200を発表。NVIDIA RTX Ada世代の追加SKUも投入

NVIDIA RTX 6000 Ada世代を最大4つ搭載できる「RTX workstation」。OEMメーカーから提供される計画で、既にDellからは先週Precisionシリーズとして発表されている

 NVIDIAは、8月6日から8月10日(米国時間)にかけて、米国カリフォルニア州ロサンゼルス市で開催されているグラフィックス関連の展示会「SIGGRAPH 2023」に参加し、同社の共同創始者でCEOのジェンスン・フアン氏が8日に行なわれた基調講演に登壇した。この中でNVIDIAは、5月末にCOMPUTEX TAIPEI 2023で発表したArm CPUとGPUを1モジュールとして提供するGH200(開発コードネーム:Grace Hopper)に、HBM3eを搭載した新バージョンを2024年第2四半期から提供開始すると明らかにした。

 また、ワークステーション向けGPUとなる「NVIDIA RTX プロフェッショナル ワークステーション」(以下NVIDIA RTX)のデスクトップ製品の最新世代となる「NVIDIA RTX Ada世代」の追加SKUとして、「NVIDIA RTX 5000 Ada世代」などの3製品に加えて、NVIDIA OVX Server向けとなる「NVIDIA L40S Ada GPU」などの新GPU製品を発表した。

GH200のHBM3e搭載版を2024年第2四半期に投入

5月のCOMPUTEX TAIPEI 2023で発表されたGH200のモジュール。左がGPU(NVIDIA H100 GPU、Hopper)、右がCPU(Grace)。Hopperのチップ上に統合されているのがHBM3メモリだが、次期バージョンではそれがHBM3eになる

 NVIDIAは、5月末に台湾・台北市で行なわれたCOMPUTEXの基調講演において、同社が「Grace Hopper」のコードネームで開発を続けてきた、Arm CPUとNVIDIA GPUが1モジュール上に統合されているコンピューティングモジュールを「GH200」として正式に発表した。

 GH200は、1つのモジュール上にArm Neoverse V2のIPライセンスを利用した72コアのArm CPU(Grace)と、NVIDIAのNVIDIA H100 GPU(Hopper)をそれぞれ1つずつ搭載しており、CPU用に480GBのLPDDR5Xメモリ、GPU用に96GBのHBM3メモリをそれぞれ搭載している。

 最大の特徴は、NVIDIAのプロプライエタリなインターコネクトであるNVlink-C2Cを採用することで、CPUメモリとGPUメモリがそれぞれデータの一貫性を維持する仕組みを採用しており、CPUとGPUのそれぞれのメモリにあるデータにそれぞれのプロセッサが透過的にアクセスできる。それにより、CPUメモリからGPUメモリへの転送時に発生するオーバーヘッドをおさえながら、演算が可能になっている。

 今回NVIDIAが発表したのは、そのGH200のGPU側のメモリをHBM3からHBM3eに変更したアップデート版を用意し、2024年第2四半期から大量出荷する予定であることだ。HBM3eは、HBM3の拡張として計画されている広帯域幅のメモリで、ピンあたりの転送速度がHBM3の6.4Gbpsから8Gbpsへと強化される。また、製造に利用されるプロセスノードも微細化されるため、1チップあたりの容量も大きくなる。

 そのため、HBM3eに対応した新版GH200では性能も容量も強化される。現行のHBM3ベースのGH200では容量が96GB、帯域幅が4TB/秒となっているが、HBM3eベースの新GH200では容量が141GB、帯域幅が5TB/秒へとそれぞれ向上する。単体のNVIDIA H100 GPUと比較すると、容量では1.7倍に、帯域幅は1.5倍になる計算だとNVIDIAは説明している。

 NVIDIAによれば、このHBM3eに対応したGH200は、2024年の第2四半期に提供が開始される予定で、NVIDIAがCOMPUTEXで提唱した新しいサーバーシャシーとなるMGXなどを利用して、複数のモジュールをサーバーブレードに格納する形で提供される見込みだ。

5000/4500/4000のNVIDIA RTX Ada世代などの新GPUも追加

NVIDIA RTX 5000 Ada世代

 加えてNVIDIAは、「NVIDIA RTX 6000 Ada世代」のワークステーション向けGPUを最大4基まで搭載できるワークステーションプラットフォーム「RTX workstation」の投入を明らかにした。このRTX workstationは、最大4基のNVIDIA RTX 6000 Ada世代、AI開発環境となる「NVIDIA AI Enterprise」、デジタルツインの開発環境となる「NVIDIA Omniverse Enterprise」をパッケージとして提供する製品で、BOXX、Dell、HP、Lenovoなどから今秋に提供が始まる計画になっている。

 なお、先週にはDellからNVIDIA RTX 6000 Ada世代を4基搭載できるPrecisionシリーズの3製品(「Precision 7960 Tower」、「Precision 7865 Tower」、「Precision 5860 Tower」)が発表されたが、それもRTX workstationに基づいた製品となる。こちらは8月中に発売予定であることがDellより明らかにされている。

 なお、従来はQuadroとして知られていたワークステーション向けGPUのNVIDIA RTXのうち、Ada世代の製品はこれまでNVIDIA RTX 6000 Ada世代、NVIDIA RTX 4000 SFF Ada世代の2製品のみが提供されてきたが、今回のSIGGRAPHの発表で、「NVIDIA RTX 5000 Ada世代」、「NVIDIA RTX 4500 Ada世代」、「NVIDIA RTX 4000 Ada世代」の3製品が追加された。

【表1】NVIDIA RTX Ada世代のスペック
NVIDIA RTX 6000 Ada世代NVIDIA RTX 5000 Ada世代NVIDIA RTX 4500 Ada世代NVIDIA RTX 4000 Ada世代NVIDIA RTX 4000 SFF Ada世代
アーキテクチャAda LovelaceAda LovelaceAda LovelaceAda LovelaceAda Lovelace
ファンダリTSMCTSMCTSMCTSMCTSMC
プロセスノード4nm4nm4nm4nm4nm
ダイAD102AD102AD104AD104AD104
トランジスタ数763億763億358億358億358億
ダイサイズ608.4平方mm608.4平方mm294.5平方mm294.5平方mm294.5平方mm
CUDAコア数18,17612,8007,6806,1446,144
NVIDIA Tensorコア数568400240192192
NVIDIA RTコア数142100604848
単精度浮動小数点演算性能91.1TFLOPS65.3TFLOPS39.6TFLOPS26.7TFLOPS19.2TFLOPS
RTコア性能210.6TFLOPS151TFLOPS91.6TFLOPS61.8TFLOPS44.3TFLOPS
Tensor性能1457TFLOPS1044.4TFLOPS634TFLOPS427.6TFLOPS306.8TFLOPS
GPUメモリ48GB GDDR632GB GDDR624GB GDDR620GB GDDR620GB GDDR6
メモリバス幅384bit256bit192bit160bit160bit
メモリ帯域幅960GB/s576GB/s432GB/s360GB/s280GB/s
TBP(Total Board Power)300W250W210W130W70W
システムインターフェイスPCI Express 4.0 x16PCI Express 4.0 x16PCI Express 4.0 x16PCI Express 4.0 x16PCI Express 4.0 x16
ボードサイズ4.4×10.5インチ、2スロット4.4×10.5インチ、2スロット4.4×10.5インチ、2スロット4.4×9.5インチ、1スロット2.7×6.6インチ、2スロット

 ダイのコードネームで言うと、NVIDIA RTX 5000 Ada世代はAD102、NVIDIA RTX 4500/4000 Ada世代はAD104となる。

 つまり、NVIDIA RTX 5000 Ada世代は同じGA102を採用したNVIDIA RTX 6000 Ada世代の機能限定版で、NVIDIA RTX 4500/4000 Ada世代はメインストリーム向けとなる。コンシューマ向けのGeForceで言えば、GeForce RTX 4090/4080と同じAD102を採用しているのがRTX 6000と5000、GeForce RTX 4070 Ti/4070と同じAD104を採用しているのがNVIDIA RTX 4500/4000 Ada世代となる。

 なお、既に発表されているNVIDIA RTX 4000 SFF Ada世代は、TBP(Total Board Power)を70Wに制限してカードの高さを抑えたSFF(スモールフォームファクター)向けの製品となる。

NVIDIA RTX 4500 Ada世代
NVIDIA RTX 4000 Ada世代

 NVIDIAによれば、NVIDIA RTX 5000 Ada世代の性能は従来のAmpere世代のRTX 5000と比較して生成AIで1.5倍、グラフィックスで1.6倍、レンダリングで2倍、OmniverseのRTXレンダラーで3倍の性能を発揮するという。

 実売予想価格と提供時期は、NVIDIA RTX 5000 Ada世代が4,000ドル(日本円で約57万2,000円)で本日より、NVIDIA RTX 4500 Ada世代が2,250ドル(約32万1,750円)で10月から、NVIDIA RTX 4000 Ada世代が1,250ドル(同約17万8,750円)で9月から、それぞれ提供開始予定となっている。

NVIDIA L40S GPU

 また、Omniverse環境向けのサーバーとして提供されているNVIDIA OVX Server向けGPUとして「NVIDIA L40S GPU」が発表されている。こちらもAD102ベースとなっており、スペックは以下の通りだ。

【表2】NVIDIA L40S GPUのスペック
NVIDIA L40S GPU
アーキテクチャAda Lovelace
ファンダリTSMC
プロセスノード4nm
ダイAD102
トランジスタ数763億
ダイサイズ608.4平方mm
CUDAコア数18,176
NVIDIA Tensorコア数568
NVIDIA RTコア数142
単精度浮動小数点演算性能91.6TFLOPS
RTコア性能212TFLOPS
GPUメモリ48GB GDDR6
メモリバス幅384bit
メモリ帯域幅864GB/s
TBP(Total Board Power)350W
システムインターフェイスPCI Express 4.0 x16
ボードサイズ4.4×10.5インチ、2スロット

 L40Sを搭載したシステムは今秋に、ASUS、Dell、GIGABYTE、HPE、Lenovo、QCT、Supermicroなどから提供される予定だ。

Hugging FaceがDGXクラウドの採用を発表。生成AIでOpenUSD作成を補助する仕組みも

NVIDIAがHugging Faceとの提携を発表

 そのほか、生成AIアプリケーションの開発環境を提供しているHugging Faceとの提携を発表し、Hugging Face上での学習をクラウド環境に置かれているNVIDIAのDGXサーバー上で行なうサービスについて、近日開始する計画であることを明らかにした。

 Hugging Faceは、生成AIの開発環境として急速に注目を集めており、AMDやIntelといったNVIDIAの競合となる半導体メーカーも提携を発表している。マシンラーニングベースのAI学習において一般的に利用されているNVIDIAとの提携により、Hugging Faceのユーザーもこれまでよりも高速に学習を終えることが可能になる。

 また、NVIDIA AI Enterpriseと呼ばれる大企業向けのAI開発環境が第4世代となり、「NVIDIA AI Enterprise 4.0」にバージョンアップ。NVIDIA AI Workbenchというツールを利用すると、エンドユーザーのPCやワークステーション、オンプレミスのデータセンター、クラウドにあるGPUで、ロケーションに関係なく学習処理などを行なえる仕組みが導入される。

 このほかにも、同社のデジタルツイン向け開発環境となるOmniverseのクラウド版に新しいAPI(ChatUSD、DeepSearch、RunUSD)が導入される。NVIDIAがAdobeやAppleと共同で設立したAOUSD(Alliance for OpenUSD)が規定しているUSD(Universal Scene Description)の標準規格「OpenUSD」に対応したコンテンツを、生成AIを活用してより手軽に作成する事ができる仕組み「Generative AI for OpenUSD」の取り組みも発表された。