ニュース

NVIDIA、Tesla V100を16基搭載したGPUサーバー「HGX-2」

~Tensor演算性能は2PFLOPS

HGX-2

 米NVIDIAは30日(台湾時間)、「GTC Taiwan」にて、GPUサーバープラットフォーム「HGX-2」を発表した。

 AIおよびハイパフォーマンスコンピューティング(HPC)の両方に向けた、初の「単一コンピューティングプラットフォーム」という製品。

 既存の「HGX-1」ではTesla V100×8を搭載していたが、HGX-2ではTesla V100×16を12基のNVSwtichで相互に接続しており、2.4TB/sの帯域幅を実現しているのが特徴。

 CUDAコア数は計81,920コア、Tensorコアは計10,240コア、GPUメモリ総容量は512GBに達し、単精度浮動小数点演算性能は250TFLOPS、倍精度は125TFLOPS、Tensor演算で2PFLOPSの演算性能を謳う。半精度やINT8での演算も対応する。

 Xeon Gold 6140(18コア/36スレッド、2.3GHz、デュアルソケット)と比較して300倍の性能を謳っており、AIの学習に関するベンチマーク「ResNet-50」において、毎秒15,500点の処理速度を達成したとする。

 なお本製品はCPUを搭載していないため、単体で動作するものではない。CPUホストノードとHGX-2の接続はPCI Express x16×4で行なわれる。

 LenovoやQCT、Supermicro、Wiwynn、Foxconn、Inventec、Quanta、Wistronなどが、HGX-2ベースのシステムを2018年内に市場投入予定。また、Tesla V100の16基搭載構成だけでなく、8基の構成も可能となっている。

ハードウェアの構成
サーバーアーキテクチャ