ニュース
NVIDIA、HBM3e搭載版GH200を発表。NVIDIA RTX Ada世代の追加SKUも投入
2023年8月9日 01:00
NVIDIAは、8月6日から8月10日(米国時間)にかけて、米国カリフォルニア州ロサンゼルス市で開催されているグラフィックス関連の展示会「SIGGRAPH 2023」に参加し、同社の共同創始者でCEOのジェンスン・フアン氏が8日に行なわれた基調講演に登壇した。この中でNVIDIAは、5月末にCOMPUTEX TAIPEI 2023で発表したArm CPUとGPUを1モジュールとして提供するGH200(開発コードネーム:Grace Hopper)に、HBM3eを搭載した新バージョンを2024年第2四半期から提供開始すると明らかにした。
また、ワークステーション向けGPUとなる「NVIDIA RTX プロフェッショナル ワークステーション」(以下NVIDIA RTX)のデスクトップ製品の最新世代となる「NVIDIA RTX Ada世代」の追加SKUとして、「NVIDIA RTX 5000 Ada世代」などの3製品に加えて、NVIDIA OVX Server向けとなる「NVIDIA L40S Ada GPU」などの新GPU製品を発表した。
GH200のHBM3e搭載版を2024年第2四半期に投入
NVIDIAは、5月末に台湾・台北市で行なわれたCOMPUTEXの基調講演において、同社が「Grace Hopper」のコードネームで開発を続けてきた、Arm CPUとNVIDIA GPUが1モジュール上に統合されているコンピューティングモジュールを「GH200」として正式に発表した。
GH200は、1つのモジュール上にArm Neoverse V2のIPライセンスを利用した72コアのArm CPU(Grace)と、NVIDIAのNVIDIA H100 GPU(Hopper)をそれぞれ1つずつ搭載しており、CPU用に480GBのLPDDR5Xメモリ、GPU用に96GBのHBM3メモリをそれぞれ搭載している。
最大の特徴は、NVIDIAのプロプライエタリなインターコネクトであるNVlink-C2Cを採用することで、CPUメモリとGPUメモリがそれぞれデータの一貫性を維持する仕組みを採用しており、CPUとGPUのそれぞれのメモリにあるデータにそれぞれのプロセッサが透過的にアクセスできる。それにより、CPUメモリからGPUメモリへの転送時に発生するオーバーヘッドをおさえながら、演算が可能になっている。
今回NVIDIAが発表したのは、そのGH200のGPU側のメモリをHBM3からHBM3eに変更したアップデート版を用意し、2024年第2四半期から大量出荷する予定であることだ。HBM3eは、HBM3の拡張として計画されている広帯域幅のメモリで、ピンあたりの転送速度がHBM3の6.4Gbpsから8Gbpsへと強化される。また、製造に利用されるプロセスノードも微細化されるため、1チップあたりの容量も大きくなる。
そのため、HBM3eに対応した新版GH200では性能も容量も強化される。現行のHBM3ベースのGH200では容量が96GB、帯域幅が4TB/秒となっているが、HBM3eベースの新GH200では容量が141GB、帯域幅が5TB/秒へとそれぞれ向上する。単体のNVIDIA H100 GPUと比較すると、容量では1.7倍に、帯域幅は1.5倍になる計算だとNVIDIAは説明している。
NVIDIAによれば、このHBM3eに対応したGH200は、2024年の第2四半期に提供が開始される予定で、NVIDIAがCOMPUTEXで提唱した新しいサーバーシャシーとなるMGXなどを利用して、複数のモジュールをサーバーブレードに格納する形で提供される見込みだ。
5000/4500/4000のNVIDIA RTX Ada世代などの新GPUも追加
加えてNVIDIAは、「NVIDIA RTX 6000 Ada世代」のワークステーション向けGPUを最大4基まで搭載できるワークステーションプラットフォーム「RTX workstation」の投入を明らかにした。このRTX workstationは、最大4基のNVIDIA RTX 6000 Ada世代、AI開発環境となる「NVIDIA AI Enterprise」、デジタルツインの開発環境となる「NVIDIA Omniverse Enterprise」をパッケージとして提供する製品で、BOXX、Dell、HP、Lenovoなどから今秋に提供が始まる計画になっている。
なお、先週にはDellからNVIDIA RTX 6000 Ada世代を4基搭載できるPrecisionシリーズの3製品(「Precision 7960 Tower」、「Precision 7865 Tower」、「Precision 5860 Tower」)が発表されたが、それもRTX workstationに基づいた製品となる。こちらは8月中に発売予定であることがDellより明らかにされている。
なお、従来はQuadroとして知られていたワークステーション向けGPUのNVIDIA RTXのうち、Ada世代の製品はこれまでNVIDIA RTX 6000 Ada世代、NVIDIA RTX 4000 SFF Ada世代の2製品のみが提供されてきたが、今回のSIGGRAPHの発表で、「NVIDIA RTX 5000 Ada世代」、「NVIDIA RTX 4500 Ada世代」、「NVIDIA RTX 4000 Ada世代」の3製品が追加された。
NVIDIA RTX 6000 Ada世代 | NVIDIA RTX 5000 Ada世代 | NVIDIA RTX 4500 Ada世代 | NVIDIA RTX 4000 Ada世代 | NVIDIA RTX 4000 SFF Ada世代 | |
---|---|---|---|---|---|
アーキテクチャ | Ada Lovelace | Ada Lovelace | Ada Lovelace | Ada Lovelace | Ada Lovelace |
ファンダリ | TSMC | TSMC | TSMC | TSMC | TSMC |
プロセスノード | 4nm | 4nm | 4nm | 4nm | 4nm |
ダイ | AD102 | AD102 | AD104 | AD104 | AD104 |
トランジスタ数 | 763億 | 763億 | 358億 | 358億 | 358億 |
ダイサイズ | 608.4平方mm | 608.4平方mm | 294.5平方mm | 294.5平方mm | 294.5平方mm |
CUDAコア数 | 18,176 | 12,800 | 7,680 | 6,144 | 6,144 |
NVIDIA Tensorコア数 | 568 | 400 | 240 | 192 | 192 |
NVIDIA RTコア数 | 142 | 100 | 60 | 48 | 48 |
単精度浮動小数点演算性能 | 91.1TFLOPS | 65.3TFLOPS | 39.6TFLOPS | 26.7TFLOPS | 19.2TFLOPS |
RTコア性能 | 210.6TFLOPS | 151TFLOPS | 91.6TFLOPS | 61.8TFLOPS | 44.3TFLOPS |
Tensor性能 | 1457TFLOPS | 1044.4TFLOPS | 634TFLOPS | 427.6TFLOPS | 306.8TFLOPS |
GPUメモリ | 48GB GDDR6 | 32GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 20GB GDDR6 |
メモリバス幅 | 384bit | 256bit | 192bit | 160bit | 160bit |
メモリ帯域幅 | 960GB/s | 576GB/s | 432GB/s | 360GB/s | 280GB/s |
TBP(Total Board Power) | 300W | 250W | 210W | 130W | 70W |
システムインターフェイス | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 | PCI Express 4.0 x16 |
ボードサイズ | 4.4×10.5インチ、2スロット | 4.4×10.5インチ、2スロット | 4.4×10.5インチ、2スロット | 4.4×9.5インチ、1スロット | 2.7×6.6インチ、2スロット |
ダイのコードネームで言うと、NVIDIA RTX 5000 Ada世代はAD102、NVIDIA RTX 4500/4000 Ada世代はAD104となる。
つまり、NVIDIA RTX 5000 Ada世代は同じGA102を採用したNVIDIA RTX 6000 Ada世代の機能限定版で、NVIDIA RTX 4500/4000 Ada世代はメインストリーム向けとなる。コンシューマ向けのGeForceで言えば、GeForce RTX 4090/4080と同じAD102を採用しているのがRTX 6000と5000、GeForce RTX 4070 Ti/4070と同じAD104を採用しているのがNVIDIA RTX 4500/4000 Ada世代となる。
なお、既に発表されているNVIDIA RTX 4000 SFF Ada世代は、TBP(Total Board Power)を70Wに制限してカードの高さを抑えたSFF(スモールフォームファクター)向けの製品となる。
NVIDIAによれば、NVIDIA RTX 5000 Ada世代の性能は従来のAmpere世代のRTX 5000と比較して生成AIで1.5倍、グラフィックスで1.6倍、レンダリングで2倍、OmniverseのRTXレンダラーで3倍の性能を発揮するという。
実売予想価格と提供時期は、NVIDIA RTX 5000 Ada世代が4,000ドル(日本円で約57万2,000円)で本日より、NVIDIA RTX 4500 Ada世代が2,250ドル(約32万1,750円)で10月から、NVIDIA RTX 4000 Ada世代が1,250ドル(同約17万8,750円)で9月から、それぞれ提供開始予定となっている。
また、Omniverse環境向けのサーバーとして提供されているNVIDIA OVX Server向けGPUとして「NVIDIA L40S GPU」が発表されている。こちらもAD102ベースとなっており、スペックは以下の通りだ。
NVIDIA L40S GPU | |
---|---|
アーキテクチャ | Ada Lovelace |
ファンダリ | TSMC |
プロセスノード | 4nm |
ダイ | AD102 |
トランジスタ数 | 763億 |
ダイサイズ | 608.4平方mm |
CUDAコア数 | 18,176 |
NVIDIA Tensorコア数 | 568 |
NVIDIA RTコア数 | 142 |
単精度浮動小数点演算性能 | 91.6TFLOPS |
RTコア性能 | 212TFLOPS |
GPUメモリ | 48GB GDDR6 |
メモリバス幅 | 384bit |
メモリ帯域幅 | 864GB/s |
TBP(Total Board Power) | 350W |
システムインターフェイス | PCI Express 4.0 x16 |
ボードサイズ | 4.4×10.5インチ、2スロット |
L40Sを搭載したシステムは今秋に、ASUS、Dell、GIGABYTE、HPE、Lenovo、QCT、Supermicroなどから提供される予定だ。
Hugging FaceがDGXクラウドの採用を発表。生成AIでOpenUSD作成を補助する仕組みも
そのほか、生成AIアプリケーションの開発環境を提供しているHugging Faceとの提携を発表し、Hugging Face上での学習をクラウド環境に置かれているNVIDIAのDGXサーバー上で行なうサービスについて、近日開始する計画であることを明らかにした。
Hugging Faceは、生成AIの開発環境として急速に注目を集めており、AMDやIntelといったNVIDIAの競合となる半導体メーカーも提携を発表している。マシンラーニングベースのAI学習において一般的に利用されているNVIDIAとの提携により、Hugging Faceのユーザーもこれまでよりも高速に学習を終えることが可能になる。
また、NVIDIA AI Enterpriseと呼ばれる大企業向けのAI開発環境が第4世代となり、「NVIDIA AI Enterprise 4.0」にバージョンアップ。NVIDIA AI Workbenchというツールを利用すると、エンドユーザーのPCやワークステーション、オンプレミスのデータセンター、クラウドにあるGPUで、ロケーションに関係なく学習処理などを行なえる仕組みが導入される。
このほかにも、同社のデジタルツイン向け開発環境となるOmniverseのクラウド版に新しいAPI(ChatUSD、DeepSearch、RunUSD)が導入される。NVIDIAがAdobeやAppleと共同で設立したAOUSD(Alliance for OpenUSD)が規定しているUSD(Universal Scene Description)の標準規格「OpenUSD」に対応したコンテンツを、生成AIを活用してより手軽に作成する事ができる仕組み「Generative AI for OpenUSD」の取り組みも発表された。