ニュース

Intel、NVIDIAの牙城を崩す深層学習アクセラレータ「Nervana NNP」を正式発表

~性能20倍のエッジ推論向け次世代Movidius製品も来年前半投入

Intelが発表したNervana NNPの開発用テストチップ「Nervana NNP-L1000」

 米Intelは、カリフォルニア州サンフランシスコの会場にて記者会見を開催し、同社が開発したAI向けアクセラレータ「Intel Nervana Neural Network Processors(NNP)」を正式に発表、一部の顧客に限定して提供を開始したことを明らかにした。

 Nervana NNPはクラウドのデータセンターでの深層学習(ディープラーニング)の学習を行なう「NNP-T1000」と、クラウドのデータセンターで推論を行なう「NNP-I1000」の2つの製品が用意されており、データセンターにおける深層学習の学習と推論時の処理能力を大幅に引き上げることが可能になる。

学習向けのNNP-T1000、推論向けのNNP-I1000という2つの製品を顧客に提供を開始

 今回Intelが発表したのは、同社が「Spring Crest」(スプリングクレスト)の開発コードネームで開発を続けてきたNNPで、顧客に対して正式出荷する最初の製品となる。

 Intelは深層学習の学習用アクセラレータとして、開発コードネーム「Lake Crest」(レイククレスト)の構想を2017年に明らかにし、2018年にFacebookなどの限定された顧客に対してフィールドテストを兼ねて出荷を開始していた。

 Spring Crestはその後継となる製品にあたる。製品名が「NNP-T1000」であることは、すでに8月に米国で行なわれたHotChipsで明らかにされており、その時点で技術的な詳細も公開されている。今回は、正式に一般の顧客に対して提供が開始された。

 深層学習のクラウドにおける学習市場は、シェアが限りなく100%に近いNVIDIAの牙城とも言える状況で、IntelにとってはNVIDIAの独占状態を崩す必要があった。NNP-T1000は、IntelがTensor Processing Clusters(TPC)と呼ぶテンソル演算に最適化されたクラスタと、メモリとなるHBMが高速なデータバスで接続されており、深層学習の学習を効率よく高速に実行できる。

 「Spring Hill」(スプリングヒル)の開発コードネームで呼ばれてきたNNP-I1000は、クラウドでの深層学習の推論処理を行なうアクセラレータで、第10世代Coreプロセッサ(Ice Lake)にも採用されているIAのCPUコアとなる「Sunny Cove」コアを2つ、推論に特化したICE(Inference Compute Engines)を12個搭載する。それにより推論処理を低消費電力かつ高性能、高効率に処理できる。

 NNP-T1000やNNP-I1000は、BaiduやFacebookなどの開発パートナーと開発が続けられてきたが、今回の発表で、それ以外の一部の限定顧客に対しても提供を開始した。

Intelが発表したNervana NNPの開発用テストチップ「Nervana NNP-L1000」を搭載した開発ボード

現行世代と比較して20倍の性能を実現した次世代Movidius Myriad VPUを2020年前半に投入予定

 IntelはMovidiusを買収して得た、エッジ向けの深層学習の推論用アクセラレータ「Movidius Myriad Vision Processing Unit(VPU)」の次世代製品を、2020年の前半に提供を開始することも明らかにした。

 Movidius Myriad VPUは、1W以下という非常に低い消費電力で深層学習の推論が可能で、組み込み向け機器での画像認識などの用途に使われている。IntelがOEMメーカーと共同で開発しているPCへのAI実装でも、Movidius Myriad VPUは有力なアクセラレータの選択肢の1つと見られており、PCのユーザーにとっても注目の製品となっている。

 Intelによれば、次世代製品は従来製品に比べて約20倍の性能を実現し、電力当たりの性能が大きく向上していることが特徴となる。

Movidius Myriad VPUの次世代製品の特徴(出典: Intel)

 またIntelは、第2世代Xeon Scalable Processors(以下Xeon SP、開発コードネーム: Cascade Lake-AP)でサポートされた新命令セットVNNI(Vector Neural Network Instruction)を活用した深層学習の推論アクセラレーション機能「Intel Deep Learning Boost」を利用した場合の性能を、今後も向上させていく計画だと説明した。

 すでに初代Xeon SP(Skylake-SP)や第2世代Xeon SP向けに、開発キットをCPU/メモリ/ストレージなどに最適化することで大きな性能向上を実現しており、ここ数年、3.5カ月に1度の頻度で深層学習の推論時の性能を倍にしてきている。Intelは今後もそうした性能向上を続けて行くことを明らかにし、クラウドでの深層学習の推論で大きなシェアを持つ強みを、今後も拡大していきたいという意向を示した。