ニュース

Intel、第2世代DLアクセラレータ「Habana Gaudi2」。NVIDIA A100の約2倍の性能

Intelが公開したHabana Gaudi2とNVIDIA A100 GPUの性能の違い。A100(80GB)に比較して自然言語系の学習でのスループットが約2倍になっている

 Intelは、5月10日~5月11日(現地時間、日本時間5月11日~5月12日)に同社のプライベートイベントとなる「Intel Vision」(インテル・ビジョン)をアメリカ合衆国テキサス州ダラスフォートワース空港近くの「Marriott Gaylord Texan & Convention Center」で開催する。

 Intelはそれに先だって報道発表を行ない、同社がHabanaのブランド名で提供しているディープラーニングのアクセラレータ製品(学習用のHabana Gaudiと推論用のHabana Goya)のロードマップを更新し、それぞれ第2世代の製品となるHabana Gaudi2を発表し、Habana Grecoを今後提供する計画であることを明らかにした。

Gaudi2はNVIDIA A100の約2倍程度の性能を発揮

Intelのディープラーニング向け演算の製品群、CPUのみと、CPU+GPU、そしてCPU+Habanaという選択肢がある

 Intelは2019年にディープラーニング向け演算のアクセラレータを開発しているHabana Labsを買収し、そのHabana Labsが開発してきた学習用のアクセラレータとなるHabana Gaudi(以下Gaudi)、さらには推論用のアクセラレータとなるHabana Goya(以下Goya)の2種類の製品を提供してきた。

現行製品のGaudiはAWS EC2 DL1インスタンスで提供されているほか、ddn、Supermicroなどの機器ベンダーから出荷されている
IntelによればDL時にかかるコストをGaudiで節約できる

 特にGaudiはパブリッククラウドサービスのAWSが提供するEC2 DL1インスタンスとしても提供されており、ディープラーニング学習のアクセラレータとして一般的に利用されているNVIDIAのGPUと比較して、コストパフォーマンスが高いとIntelでは説明している。

Gaudi2の概要

 今回Intelが発表したのはその初代Gaudiの後継となる製品で「Habana Gaudi2」(以下Gaudi2)。Gaudiは16nmで製造されていたのに対してGaudi2では7nmに微細化され、ダイサイズはほぼ前の世代と同じながら、増えたトランジスタを機能拡張などに使っており、性能が向上している。実際、内蔵されているコンピュートエンジンはGaudiが8TPCだったのに対して24TPCへと3倍になっており、新しくFP8のデータ精度に対応し、演算効率が改善している。

 メモリも強化点で、Gaudiが24MBのキャッシュ、32GBのHBM2(1TB/s)というメモリ構成だったのに対して、Gaudi2は48MBのキャッシュと倍増、96GBのHBM2e(2.45TB/s)とキャッシュも、メモリ容量も、メモリ帯域幅も向上している。ほか、24x100Gb Ethernet、TDPは600Wという構成になっている。

ResNet-50(TensorFlowを利用したイメージ処理の学習)のスループットではGaudi1に比べて3.2倍、NVIDIA A100 GPU(80GB)に比べて1.9倍
NLP(自然言語処理)ではA100の1.7倍と2.8倍

 これらの改善により、ResNet-50(TensorFlowを利用したイメージ処理の学習)のスループットでは、現在販売されているNVIDIAの最高製品であるNVIDIA A100 GPU(80GB)と比較して、Gaudiは約1.9倍の性能を実現しており、前世代のGaudiと比較すると約3.2倍の性能を実現している。

推論用Goyaの後継としてはGrecoを発表、7nmで製造され今年後半からサンプル出荷開始

Grecoの概要

 推論アクセラレータGoyaの後継となる製品は、Habana Greco(以下Greco)で、こちらも7nmに微細化される。メモリはGoyaが50MBキャッシュ、DDR4/16GB(40GB/s)だったのが、Grecoは128MBキャッシュ、16GB/LPDDR5(204GB/s)となりキャッシュもメモリも強化される。また、データ精度はBF16、FP16、INT4にも新たに対応し、TDPは従来製品の200Wから75Wに下げられる。

 IntelによればGaudi2は既に顧客への提供が開始されており、Grecoは今年(2022年)の後半に選択された顧客に対してサンプル出荷が開始される計画だという。