ニュース

NVIDIA、7nmプロセスのAmpere採用GPU「A100」。Voltaから20倍性能向上

NVIDIA A100

 NVIDIAは14日、Ampereアーキテクチャを採用する初のGPUとして、データセンター向けの「NVIDIA A100」を発表した。

 NVIDIA A100のトランジスタ数は540億個を超過し、ダイサイズは826平方mm、製造プロセスルールはTSMCの7nm、メモリはSamsung製のHBM2 40GBを搭載する。

 第3世代のTensorコアを採用し、新たに実装されたAI向けのTF(Tensor Float)32によって、Voltaアーキテクチャを採用する前世代のNVIDIA V100(2019年のGTCよりTesla V100から名称が改められた)に対して、FP32(単精度浮動小数点数)演算でコードの変更なしに20倍の性能となる312TFLOPSを実現。さらに、TensorコアがFP64(倍精度浮動小数点数)をサポートしたことで、HPCアプリケーションでの性能はVolta比で2.5倍となる19.5TFLOPSに向上した。INT8(8bit整数演算)のディープラーニング推論処理でも20倍の1,248TOPSを達成している。

 また、Multi-instance GPU(MIG)技術によって、単体のA100 GPUを最大で7個のGPUに分割して扱うことができ、さまざまなレベルの計算を異なるサイズのジョブに割り当てたりと、最適な利用方法と最大限の投資利益を発揮可能。GPU間の高速接続を2倍にする第3世代のNVLinkや、AI計算の性能を2倍にするスパース能力も特徴として挙げられる。

 A100はスーパーコンピュータ向けの「DGX A100」システムに提供され、NVLinkで接続された合計8基のA100を搭載。DGX A100は12.4TB/sのメモリ帯域を備えた合計320GBのHBM2などを実装し、1ノードあたり5PFLOPSのAI性能を発揮する。DGX A100は199,000ドル(約2,100万円)で出荷される。

DGX A100

 なお、NVIDIA A100の発表の場となったGTC 2020は今回オンライン開催となり、YouTubeで同社CEOジェンスン・フアン氏の基調講演を含めて詳細な内容を見ることができる。