ニュース

Intel、深層学習を高速化する「Nervana NNP-L1000」を2019年末までに出荷

~2020年の東京オリンピックのAIプラットフォームパートナーに就任

IntelのAIビジョンを説明するIntel 執行役員 兼 AI製品事業本部 本部長 ナビーン・ラオ氏

 Intelは、5月23日~5月24日(現地時間)の2日間に渡り、米国カリフォルニア州サンフランシスコ市のThe Palace of Fine Artsにおいて、AIアプリケーションなどを開発する開発者向けのイベント「Intel AIDC(AI DevCon)」を開催している。初日の午前中(現地時間、日本時間5月24日未明)には、Intel 執行役員 兼 AI製品事業本部 本部長のナビーン・ラオ氏による基調講演が行なわれた。

 このなかでラオ氏は、昨年(2017年)の秋から特定の顧客向けにサンプル出荷を開始している同社の深層学習向けNNP(Neural Network Processor)の最初の製品となる「Nervana NNP」(開発コードネームLake Crest)の性能を初めて公開し、その後継となる製品「Nervana NNPL-1000」(Spring Crest)を、2019年に商用提供開始することを明らかにした。

 また、IntelはオリンピックのAIプラットフォームパートナーに就任し、2020年の東京オリンピックではAIを活用した新しいサービスなどを提供していく計画だと明らかにした。

異なるタイプのプロセッサが複数あるIntelの弱点を強みに変えるnGRAPHを発表

 ラオ氏は「IntelのAIビジョンは、AIのアプリケーションを開発したい開発者の手助けをすることだ。AIは非常に複雑で、いくつもの種類のテクニックがある。それを実現するにはベストのツールと優れたハードウェア、それにコミュニティが必要になる」と述べ、IntelのAIに関する基本的な考え方を説明し、ソフトウェア、ハードウェア、そしてコミュニティという3つの側面からの説明を行なった。

 ソフトウェアに関しては、Intel AI製品事業部 ソフトウェア製品責任者 ジェイソン・ナイト氏が説明を行なった。

Intel AI製品事業部 ソフトウェア製品責任者 ジェイソン・ナイト氏(左)がGoogleの担当者と説明を行なう

 ナイト氏はIntelがオープンソースのライブラリとして提供しているMath Kernel Library for Deep Neural Network(MKL-DNN)に関して、Googleの担当者をステージに呼び、Googleが提供している深層学習のフレームワークとなるTensorFlowとMKL-DNNを利用することで、大きな性能向上が実現できると説明。

「BroadwellやSkylake世代のXeonプロセッサにおいて、TensorFlowとMKL-DNNを利用すると、推論の性能が3倍向上する。さらに、64ノードのクラスターを構成して学習を行なう場合でも、性能のペナルティはわずか6%だけだ」と述べた。

TensorFlowとMKL-DNNを利用したときの性能

 その上で、nGRAPH(エヌグラフ)と呼ばれるコンパイラを導入し、Intelが複数用意している深層学習用のプロセッサをどのフレームワークからでも、最適なハードウェアを選んで実行できるようにする仕組みを実装すると説明した。

これまでの状況、プログラマがハードウェアの違いを意識しないといけなかった
プログラムから見るとnGRAPHがハードウェアの違いを吸収してくれる

 現在は、プログラマーが明示的にどのハードウェアを利用するかを意識してプログラムを書かなければならないが、このnGRAPHが導入されると、nGRAPHがハードウェアを抽象化してしまうため、プログラマーはハードウェアのことを意識する必要はなくなる。

 これまでIntelは深層学習を演算する演算器として、XeonやCoreなどのCPU、Coreに内蔵されている内蔵GPU、NNPやXeon Phiなどのアクセラレータ、FPGAなど複数の選択肢が用意されており、プログラマーがそれぞれターゲットのプロセッサを考えながらプログラムを書かなければいけないことが弱点となっていた。nGRAPHはそれを隠蔽して、複数の選択肢があるということをメリットに変える効果がある。

OpenVINOの発表

 また、IntelはこのnGRAPHを含むソフトウェアツールキットとしてOpenVINO(オープンビーノ)を発表し、それを利用することで推論の性能がCore i7-7800Xを利用した場合、NVIDIAのTesla P4に比べて2倍、FPGAのArria 10を利用した場合はTesla P4に比べて1.4倍、Movidius Myraid Xを利用した場合、Tegra TX2に比べて電力あたりの性能が5倍になると説明した。

各種ツールを利用して推論をIntelハードウェアで行なった場合の、NVIDIA GPUやTegraとの性能の違い

XeonやFPGAなどさまざまなプロセッサを利用してAI開発を後押し

 続いてラオ氏、Intelは機械学習の世界では古くから使われているXeonやCoreなどのCPU、プログラマブルなFPGA、さらにはIntelが買収したNervanaが開発してきたNNPなどの各種のハードウェアを提供していることについて説明。

 「深層学習の環境はどんどん複雑になっている。従来は主に学習側だけが注目を集めていたが、今は推論にも関してもニーズがどんどん高まっている。すでにワンサイズフィッツオールではなくなっている」と述べ、深層学習=NVIDIAという状況を意識してか、今後はGPUだけでなく、複数のプロセッサを提供できるIntelの強みが活きてくると強調した。

Xeonを利用した機械学習

 そのうえで、Xeonの機械学習や深層学習の性能に関して、Haswell世代を1とした時に、2017年の5月にリリースしたSkylake-SPでは学習が100倍に、推論が198倍になっていると述べた。深層学習の推論の需要がどんどん高くなっているというFacebookの担当者をステージに呼び、推論に関してはXeonのようなCPUを使うのが効率が良いという議論を行なった。

 学習に関しても、TensorFlowやMKL-DNNなどのIntelのツールキットを組み合わせ、ノードを増やしてスケールアウトすることで、利用できるメモリ量を増やすことができるので、大容量のメモリを実現することが難しいGPUに比べて効率よくスケールを上げていくことができると強調された。

Xeonの学習や推論の性能向上の歴史
ラオ氏(左)がFacebookの担当者を呼びその効果を語った
Xeonのノードを増やした場合の性能

 また、先日発表されたMicrosoftのBrainwave(FPGAで実現するAIプラットフォーム)についてもふれ、MicrosoftがテストしてGPUとFPGAを推論に利用した場合の性能の違いを見せ、FPGAのほうが圧倒的に推論できることを強調した。

 そして約1年半前にIntelが買収したMovidiusの推論アクセラレータチップについても言及し、Movidiusのチップが入ったUSBモジュールを利用して、人間がキーボードを弾くと、それに併せてAIがギターを弾く様子などをデモとして行なった。

FPGA
GPUとFPGAを利用して推論を行なった場合の性能比較
Intelが買収したMovidiusの推論アクセラレータ。IntelではVPU(Vision Processing Unit)と呼んでいる
1W以下で動作する
Movidiusの特徴
MovidiusのUSBスティック・開発キットを見せるラオ氏
人間がキーボードを弾くと、AIがそれにあったギターを弾いてくれるデモ

2019年の終わりまでにIntel Nervana NNP -L1000を商用出荷へ

 そして、Intelが2016年に開催したAI Dayで明らかにし、昨年の10月にIntel Nervana NNPとして発表されたLake Crest(レイククレスト、開発コードネーム)に関して説明を行なった。Lake Crestは12個のTensorコアから構成される深層学習に特化したプロセッサで、GPUに比べて高効率に深層学習の学習や推論を行なうことができるのが特徴になっている。Lake Crestは現在特定の顧客にサンプル出荷されており、ソフトウェアスタックを含めて評価が行なわれている。

NNP(Neural Network Processor)
Lake Crest

 今回ラオ氏は初めてLake Crestの性能を公開した。Chip Xとだけ書かれた競合他社のチップ(誰も異論がないと思うが、NVIDIAのGPUだと思われる)と比較して、スペック上の論理性能はGPUのほうが高いが、「Chip Xのほうは深層学習の演算を行なう場合には実際に利用できている性能は高くない。しかし、Lake Crestは論理的な性能の96.4%(おおむね38TOP/s)を実現しており、マルチチップ構成にしたときのスケーリングの性能も96.2%、さらにオフチップの帯域幅は2.4TB/sを実現しており、レイテンシは790ns以下だ」と述べ、Lake Crestの優位性を強調した。なお、消費電力に関してはシングルチップで210W以下になるということだ。

Lake Crestの性能が初めて明らかにされた

 そのLake Crestの後継として、Spring Crestという製品を計画していることも明らかにした。Lake Crestに比べて3~4倍の学習性能を実現し、2019年の終わりまでにNervana NNP -L1000という製品名で投入すると発表した。

 このSpring CrestではLake Crestのように限定された顧客にだけ提供するというかたちではなく、商用出荷、つまり顧客が望めば誰にでも販売するという形で提供されることになる。Intelが明らかにしたSpring Crestの予想性能がそのとおりであれば、GPUと比較して実性能で上回れる可能性が高く、GPUに代わる新しい深層学習の学習時に利用する高性能プロセッサとしての注目すべき選択肢になっていくだろう。

Spring Crestの性能
Spring CrestはIntel Nervana NNP -L1000として2019年末までに発表される予定

IntelはオリンピックのAIプラットフォームパートナーとなり、2020年の東京オリンピックにAI技術を提供へ

 講演の最後のパートではIntel AI事業本部 データサイエンス主任 インイン・リュー氏が登壇し、同社のオリンピックにおけるAI活用の取り組みなどについて説明した。Intelはオリンピックの公式パートナーになっており、平昌で今年の2月に行なわれた冬期オリンピックでは、Intelの技術を利用したVR中継、5Gなどのデモが行なわれている。

Intel AI事業本部 データサイエンス主任 インイン・リュー氏
すでにオリンピックの公式パートナーになっているIntel

 今回リュー氏が発表したのは、IntelがオリンピックにおけるAIプラットフォームのパートナーになったことだ。これにより、AIを利用した新しいサービスなどが東京オリンピックで行なわれる見通しで、クラウドベースのAI、ビジネスアプリケーションなどにAIを導入して、オリンピック選手に利便性を提供したり、ファンに新しい楽しみ方などを提供していくことになるという。

 それに併せて、AI開発者などにそのオリンピックでのAI利用のアイディアを募集するコンテストを行なう予定になっており、優勝者には1万ドル(約110万円)の賞金が用意されていることなどが明らかにされた。

公式パートナーに加えて、AIプラットフォームパートナーともなる。AIのソリューションを東京オリンピックに提供していく