ニュース

インテル、学習/推論処理ASICなどAI向け自社ラインナップを説明

IntelがAI開発向けに展開している製品区分

 インテル株式会社は11月27日、「AIにおけるインテルの最新の取り組み」と題した説明会を実施した。11月13日にIntelが発表したAI向けアクセラレータの「NNP (Neural Network Processors)」など、同社が今後のAI開発向けに提供していくプロセッサなどの簡単な紹介が行なわれた。

 なお、NNPなどに関しては別記事の『Intel、NVIDIAの牙城を崩す深層学習アクセラレータ「Nervana NNP」を正式発表』と、『Intel、次世代Xeon「Cooper Lake」で深層学習向け新命令Bfloat16をデモ』に詳しく書かれているので、そちらを参照されたい。

インテル株式会社 執行役員常務 技術本部 本部長の土岐英秋氏

 説明会で登壇したインテル株式会社 執行役員常務 技術本部 本部長の土岐英秋氏は、Intelにおける2019年のAI関連の売上はすでに35億ドル(約3,800億円)に達しているとし、とくにIntelのプロセッサが深層学習における推論部分での飛躍がめざましいと語った。AI開発ではNVDIAのGPGPUも存在感があるが、IntelのほうでもAI開発においては大きな成果を上げているという。

 IntelはAI開発向けに提供している製品区分として、CPU、GPU、FPGA、ASICを用意しており、まずASIC製品として新しく投入されるのが、冒頭の深層学習用のアクセラレータであるNervana NNPだ。

 Nervana NNPはクラウド/サーバー用途として、学習向けの「NNP-T1000」(Tはトレーニングを指している)と、推論向けの「NNP-I1000」(Iはインファレンス)の2種類をそれぞれ用意。以下のスライド説明にあるように、競合のNVIDIAよりも高性能であることを謳っており、2019年内に生産開始予定としている。

クラウド/サーバーでの学習向けアクセラレータのNNP-T
クラウド/サーバーでの推論向けアクセラレータののNNP-I
NNP-Iは競合のNVIDIAよりも少ない密度で高性能を発揮可能とする
480枚のNervana NNP搭載カードを実装した10ラックのサーバー

 また、Intelがエッジ向けに用意するVPU (Vision Processing Unit)として「Movidius」(コードネームKeem Bay)もある。高速に推論を行なえるが、性能あたりの消費電力が低く、1Wあたりの推論性能は競合するNVIDIA「Jetson TX2」の6.2倍、面積あたりの推論性能は8.7倍、推論性能で言えば4倍の性能を謳う。チップ型、M.2、拡張カードといった異なるいくつかのフォームファクタで提供される。

エッジ側でのVPUアクセラレータ「Movidius」
NVIDIAのJetson TX2よりも高性能

 Intelとしては今後エッジ側で必要とされる推論の量が増大すると見込んでおり、そのためには低消費電力に高速な処理が行なえるアクセラレータが不可欠になるという。また、深層学習のモデルが増大することで複雑化が進み、Intelによれば1年で約10倍に増えつつあるとしている。

学習(トレーニング)よりも、推論の負荷が莫大に増えていくとの予測
深層学習でのパラメータが増え、1年で約10倍に

 このほか、説明ではHPCやアクセラレータ向けGPUの「Ponte Vecchio」がスライドに出てきたが、詳細については語られなかった。同GPUの発表記事についてはこちらの記事『Intel、XeアーキテクチャのHPC向け7nm GPU「Ponte Vecchio」』を参照。

近々登場予定としているGPU「Ponte Vecchio」
特徴の簡単な説明