ニュース

NVIDIA、2TB/s超の広帯域メモリを80GB搭載したデータセンター向けGPU「A100 80GB」

NVIDIA A100 80GB

 NVIDIAは16日、データセンター向けGPU「NVIDIA A100 80GB」を発表した。

 同社が5月に発表したAmpereアーキテクチャの「NVIDIA A100」をベースに、メモリ容量を80GBに倍増。DRAMにHBM2eを採用することで、バンド幅は2TB/s以上を実現した。大容量・広帯域化やソフトウェア面の最適化などにより、従来のNVIDIA A100と比べて、大規模シミュレーションおよびデータ解析では2倍、AI学習では3倍の性能を発揮できるとする。さらに、推論性能や電力効率についても1.25倍の改善が図られた。

 第3世代Tensor CoreおよびNVLink、1つのGPUのリソースを最大7つのインスタンスに分割して利用できるMulti-Instance GPU(MIG)については、NVIDIA A100から引き続きサポートされる。

概要
メモリの変更などにより性能が向上

 加えて、同GPUを4基搭載したワークステーション「DGX STATION A100」も発表。CPUにはAMD EPYC(64コア)を採用し、最大512GBのメモリや1.92TB M.2 NVMe SSD(OS用)+最大7.68TB U.2 NVMe SSDのストレージなどを備える。そのほか、膨大なAIワークロードなどに対応する「DGX A100 640GB System」や、スケーラブルなサーバー向けプラットフォームの「HGX AI Supercomputing Platform」も投入する。

 DGX STATION A100およびDGX A100 640GB Systemは2020年第4四半期より提供を開始する予定で、現在DGX A100を導入している顧客向けには、DGX A100 640GB Systemへの有償アップグレードオプションも用意する。またネットワーク周りでは、400Gbpsの転送速度を実現する新アーキテクチャ「NDR 400G InfinitiBand」も発表している。

DGX STATION A100
HGX AI Supercomputing Platform
DGX A100 64GB System
NDR 400G InfinitiBand