ニュース
NVIDIA、Tesla V100を16基搭載したGPUサーバー「HGX-2」
~Tensor演算性能は2PFLOPS
2018年5月31日 18:37
米NVIDIAは30日(台湾時間)、「GTC Taiwan」にて、GPUサーバープラットフォーム「HGX-2」を発表した。
AIおよびハイパフォーマンスコンピューティング(HPC)の両方に向けた、初の「単一コンピューティングプラットフォーム」という製品。
既存の「HGX-1」ではTesla V100×8を搭載していたが、HGX-2ではTesla V100×16を12基のNVSwtichで相互に接続しており、2.4TB/sの帯域幅を実現しているのが特徴。
CUDAコア数は計81,920コア、Tensorコアは計10,240コア、GPUメモリ総容量は512GBに達し、単精度浮動小数点演算性能は250TFLOPS、倍精度は125TFLOPS、Tensor演算で2PFLOPSの演算性能を謳う。半精度やINT8での演算も対応する。
Xeon Gold 6140(18コア/36スレッド、2.3GHz、デュアルソケット)と比較して300倍の性能を謳っており、AIの学習に関するベンチマーク「ResNet-50」において、毎秒15,500点の処理速度を達成したとする。
なお本製品はCPUを搭載していないため、単体で動作するものではない。CPUホストノードとHGX-2の接続はPCI Express x16×4で行なわれる。
LenovoやQCT、Supermicro、Wiwynn、Foxconn、Inventec、Quanta、Wistronなどが、HGX-2ベースのシステムを2018年内に市場投入予定。また、Tesla V100の16基搭載構成だけでなく、8基の構成も可能となっている。