ニュース
NVIDIA、PCIe版Ampere GPU「A100 PCIe」を投入
2020年6月22日 16:00
NVIDIAは22日、同社のデータセンター向けGPUとしてPCI Express拡張カード版の「NVIDIA A100 PCIe」を発表した。これにともない、A100 PCIeを搭載するサーバーが、メーカー各社より今夏から年末にかけて順次50製品以上が投入される。
既報の記事(NVIDIA、7nmプロセスのAmpere採用GPU「A100」。Voltaから20倍性能向上)のとおり、NVIDIA A100はAmpereアーキテクチャをベースとする初のGPUで、TSMCによる7nmプロセス技術を採用し、前世代のVoltaから大きく性能が向上した第3世代のTensorコアを搭載している。
今回、基板状のA100 SXMに加え、PCI Express拡張カード版の「A100 PCIe」が追加。すでに発表済みの高性能サーバー「HGX A100」に4-wayまたは8-way構成で実装されているもので、FP32の学習処理で312TFLOPS、INT8の推論処理で1,248TOPS、FP64のHPC処理で19.5TFLOPSを実現。学習および推論処理についてはVoltaの20倍の性能を備えている。
A100 PCIeを採用するサーバーとしては、ASUS、Dell、Lenovo、富士通、GIGABYTE、Supermicroなどが用意されており、A100によるAIワークロードの動作を保証するNGC-Ready認証システムも導入。同認証システムはGPU最適化AIソフトウェアであるNGC registryでテストされる。
| A100 SXM4 for NVIDIA HGX | A100 PCIe GPU | |
|---|---|---|
| アーキテクチャ | Ampere | |
| プロセスルール | 7nm(TSMC) | |
| 倍精度性能 | FP64 : 9.7TFLOPS FP64 Tensor Core : 19.5TFLOPS | |
| 単精度性能 | FP32 : 19.5TFLOPS Tensor Float 32(TF32) : 156TFLOPS(Structural sparsity有効時312TFLOPS) | |
| 半精度性能 | 312TFLOPS(Structural sparsity有効時624TFLOPS) | |
| Bfloat16 | 312TFLOPS(Structural sparsity有効時624TFLOPS) | |
| 整数性能 | INT8 : 624TOPS(Structural sparsity有効時1,248TOPS) INT4 :1,248TOPS(Structural sparsity有効時2,496TOPS) | |
| GPUメモリ | 40GB HBM2(Samsung製) | |
| メモリ帯域 | 1.6TB/s | |
| ECC | 有効 | |
| インターコネクト | PCIe 4.0 : 64GB/s 第3世代NVLink : 600GB/s(HGX A100サーバーボード利用時) | PCIe 4.0 : 64GB/s 第3世代NVLink : 600GB/s(2GPUでのNVLink Bridge利用時) |
| フォームファクタ | HGX A100(4/8 SXM 3D Packaging GPU) | PCIe 4.0 : 64GB/s 第3世代NVLink : 600GB/s(2GPUでのNVLink Bridge利用時) |
| マルチインスタンスGPU(MIG) | 最大7GPU | |
| 最大消費電力 | 400W | 250W |
| 実アプリ性能 | 100% | 90% |
| 熱処理方法 | パッシブ | |
| API | CUDA、DirectCompute、OpenCL、OpenACC | |










![[Amazon限定ブランド]CCL い・ろ・は・すラベルレス 2LPET ×8本 ミネラルウォーター 無味 製品画像:1位](https://m.media-amazon.com/images/I/41h0MHfvhkL._SL160_.jpg)








