ニュース
NVIDIA、Voltaアーキテクチャ採用「Tesla V100」のPCI Express版を年内投入
2017年6月21日 14:41
米NVIDIAは19日(米国時間)、PCI Expressカード版GPUアクセラレータ「Tesla V100」を発表した。
すでにSXM2版とともにPCIe版が存在することは発表されていた(NVIDIA、Volta世代の「Tesla V100」投入参照)が、今回の発表で仕様の詳細が明らかにされた。
Texla V100についての詳細は、「本格的に深層学習へ舵を切った真のジャイアントコア『Tesla V100』」を参照されたい。
CUDAコアや深層学習向け演算に特化したTensorコアの数はPCIe/SXM2版ともに共通だが、PCIe版では消費電力がSXM2版の300Wから250Wに下げられ、演算性能もSXM2版から若干低下している。これはPascalアーキテクチャを採用した「Tesla P100」と同様の構成となる。
モデル | Tesla V100 PCIe | Tesla V100 SXM2 | Tesla P100 PCIe | Tesla P100 SXM2 |
---|---|---|---|---|
アーキテクチャ | Volta | Pascal | ||
製造プロセス | 12 nm FFN | 16 nm FinFET+ | ||
トランジスタ数 | 21.1億 | 15.3億 | ||
CUDAコア数 | 5,120 | 3,584 | ||
Tensorコア数 | 640 | - | ||
ベースクロック | ? | 1,126MHz | 1,328MHz | |
ブーストクロック | ? | 1,455 MHz | 1,303MHz | 1,480 MHz |
倍精度演算性能(FP64) | 7 TFLOPs | 7.5 TFLOPs | 4.7 TFLOPs | 5.3TFLOPs |
単精度演算性能(FP32) | 14 TFLOPs | 15 TFLOPs | 9.3 TFLOPs | 10.6 TFLOPs |
半精度演算性能(FP16) | - | 18.7 TFLOPs | 21.2 TFLOPs | |
Tensor演算性能 | 112 TFLOPs | 120 TFLOPs | - | |
メモリ | 4,096-bit HBM2 16GB | 3,072-bit HBM2 12GB 4,096-bit HBM2 16GB | 4,096-bit HBM2 16GB | |
メモリ帯域 | 900 GB/s | 549 GB/s (12GB HBM2) 732 GB/s (16GB HBM2) | 732 GB/s | |
接続インターフェイス | PCI Express 3.0 | NVLink | PCI Express 3.0 | NVLink |
フォームファクタ | PCIe FHFL | SXM2 | PCIe FHFL | SXM2 |
消費電力 | 250W | 300W | 250W | 300W |
PCIe版Tesla V100の発売時期については、NVIDIAは、Hewlett Packard Enterpriseなどのリセラーパートナーより、PCIe版Tesla V100および搭載システムを今年中に提供開始するとしている。