ニュース

NVIDIA、AIや深層学習を加速する「TESLA P100」を量産開始

~GTC 2016基調講演から

GTC 2016

 NVIDIAは、同社のGPUコンピューティング(GPUを利用した汎用演算)のソリューションなどをプログラマーやエンジニアなどに説明する技術イベントとなるGTC(Gpu Technology Conference)を、4月4日~4月7日(現地時間)の4日間にわたり開催している。初日の4月4日はセミナー中心のプレカンファレンスデーとなり、2日目となる4月5日が実質的なイベント初日となる。

 その4月5日の午前中には、同社CEOのジェンセン・フアン氏による基調講演が行なわれた。

 この中でフアン氏は「2015年はディープラーニング(深層学習)やAIにとって、記念すべき進化を見せた年になった。今年もそれは続いていくだろう」と述べ、同社が推進しているGPUによるディープラーニングの学習やAIの開発などが、ここ1年で驚くほどの進展を見せ、そしてそれが今年も続くだろうとした。

GameWorks、VRWorks、DRIVENETなどをNVIDIA SDKとして提供していく

 今回の基調講演でフアン氏は5つのテーマを掲げ、それについて順々に説明していくスタイルで講演を進めた。それが開発キット、VR、ディープラーニングに適した新しいGPU、ディープラーニング用のサーバー、ディープラーニングを利用したAI/自動運転になる。フアン氏は「GTCは、GPUコンピューティングを説明するイベントだ。GPUを利用してどのように世界を変えていくのかを説明していく。既にGPUコンピューティングは、コンピューティングの新しいモデルとなりつつある」と述べた。

 フアン氏は始めに、開発者向けのソフトウェア開発キットとして、「NVIDIA SDK」とブランド名をつけた、複数のSDKから構成される開発キットを提供していくことから説明した。既にゲーム開発者がリアルタイムレンダリングのゲームを開発するのに利用する「GameWorks」、写真品質のゲームを実現する「DesignWorks」、そして1月のCESで発表された、VR開発者向けの開発キットとなる「VRWorks」などの既存製品について説明した後、これから新しいバージョンを提供していく「ComputeWorks」に関して説明した。

 ComputeWorksにはGPUコンピューティングの基本的な開発言語となるCUDAと、それを利用したディープラーニングの開発環境となるcuDNNなどが含まれているが、最新版を第2四半期より順に提供していくとした。CUDAの最新版となる「CUDA8」が6月に、cuDNNの最新版となる「cuDNN5」が4月に、「nvGRAPH」が6月、「IndeX plug-in for ParaView」が5月に提供される予定だとフアン氏は説明した。

 また、自動車メーカーなどが自律運転や自動運転車を開発する際などに利用する開発キットとなる「DriveWorks」に関しても、JPLが既に提供済みで、EAPに関しては今四半期中に提供される予定であることが明らかにされた。ただし、これらは限られた顧客に対しての限定提供で、一般リリースは2017年の第1四半期になる予定だ。また、自動車メーカー向けのハードウェアの開発環境となる、「JETSON TX1」向けのソフトウェア開発キットとして「JetPack」が5月に提供される予定であることも合わせて明らかにされている。

NVIDIA CEO ジェンセン・フアン氏
GTCの参加者は2012年に比べて倍になり、CUDAのプログラマーも4倍になっている
5つのテーマで講演を進めた
NVIDIA SDKとして各種開発ツールを提供していく
ゲームの写真品質の画像作成にはDesignWorks
ゲームのレンダリングにはGameWorks
VRの開発にはVRWorks
自動車向けの開発にはDriveWorks
JETSON向けの開発にはJetPack

VRはガジェットだけでなく、ビジネスにも利用できると「Iray VR」を発表

 引き続きフアン氏は、VRに関する話題へと移っていった。NVIDIA自身はVRゴーグルを出しているわけではないが、Oculus RiftやHTC ViveなどのサードパーティのVRゴーグルを幅広くサポートしており、VRに積極的に取り組んでいるベンダーの1つと言って良い。

 今回の基調講演でフアン氏は2つのVRのデモを紹介した。1つはEVEREST VRと呼ばれるデモで、エベレスト登山の様子を、GPUにより写真品質で3D映像化してVRで楽しめるというものになる。フアン氏によれば、雪の動きなどもGPUを利用して物理演算ベースで再現されているということで、ユーザーの動きに応じてエベレストの様子が再現されるという。もう1つのデモはMARS 2030というデモで、ちょうど日本でも公開中の映画「オデッセイ」のように、火星を探検する様子がVRの中に再現されるデモとなっている。なお、これらのデモはいずれもGTCの展示会場で実際に体験できる。

 またフアン氏は、VRの新しい使い方として「Iray VR」を発表した。NVIDIAのIrayは写真品質のリアルタイムデモを作るためのレンダリングソリューションで、それをVRに対して適用することで、製品の開発といったソリューションにも使えるようにするというものだ。例えば、自動車のプロトタイプカーを写真品質でレンダリングして出来映えを確認したりという用途にIrayは利用されているが、それをPCのディスプレイだけでなく、VRにも広げようというのがIray VRになる。

 フアン氏は「VRは単なるガジェットではなく、新しいコンピューティングのプラットフォームだ」と述べ、MicrosoftがHoloLensで同じようにビジネスユースを広げようとしていることを例に挙げ、今後はVRでもそうした使われ方が一般的になるだろうとした。

 また、そうした作られたコンテンツを、エンドユーザーも楽しめるように、「Iray VR Lite」という仕組みを提供する予定であることを明らかにし、Androidの専用ビューアを提供していく予定であることも明らかにした。

VRは新しいコンピューティングプラットフォーム
EVEREST VRデモは、エベレストの登山をシミュレーションするデモ。実際に試してみると、谷に落ちそうなところを体験できたりとなかなかスリルあるデモだ
MARS2030は、どこからどう見ても映画「オデッセイ(邦題)」をシミュレーションしていると思われるVRデモ。映画も面白いだけに、これは是非とも体験してみたい
Iray VRを発表。自動車の開発などを想定している
Iray VR LiteではAndroidのビューアなども用意されるため、一般のユーザーでもIray VRで作ったコンテンツを楽しむことができるようになる
Iray VRのデモ。現在建設中のNVIDIAの新オフィスをIray VRでレンダリング再生しているところ

AIやディープラーニングの開発を加速するために、PascalベースのTESLA P100を投入

 次いでフアン氏は、AIやディープラーニングについて語った。「2015年は、AIやディープラーニングにとって、当たり年だったと言って良い。2015年にはGoogle、Microsoft、Baiduなどさまざまな研究者が新しい成果を出した。今年もそれが加速するだろう」と述べ、AlphaGoなどの例を挙げながら、ディープラーニングの研究が進んだことにより、さまざまな新しいアプリケーションが実現可能になったとした。

 「ディープラーニングは既に新しいコンピューティングモデルだ。これまでとは完全に違ったアプローチだが、明白なメリットがある」と述べ、そうした研究成果が起爆剤となり、AI関連のビジネスが拡大しつつあり、今後10年で5,000億ドル(55兆円: 1ドル=110円換算)の市場規模があると指摘した。

 そしてそのディープラーニングの学習などに必要なコンピューティング環境は、GPUコンピューティングだとし、「現在のGPUの処理能力はCPUなどより遙かに高速だが、それでも十分ではない。今後さらに高速な演算環境が必要だ」と述べ、最も先進的なハイパースケールデータセンター用GPUとして、「TESLA P100(テスラピーワンハンドレッド)」を発表した。

 TESLA P100は、同社が“Pascal(パスカル)”の開発コードネームで開発してきた、次世代GPUアーキテクチャに基づく製品で、FinFETの16nmプロセスルールで製造され、153億個トランジスタを1つのダイに集積した巨大なGPUとなる。倍精度で5.3TFLOPS、単精度で10.6TFLOPS、半精度で21.2TFLOPSという浮動小数点の演算性能を叩き出す。

 このほか、HBM2と呼ばれるバス幅の広い広帯域メモリ(720GB/sec)を16GB搭載し、GPU間の接続にNVLink(1つのGPUにつき4つまでサポート、最大160GB/sec)と呼ばれる専用のインターコネクトを利用することで、複数のGPUを1つのシステムに搭載した場合でも、リニアに性能を発揮するようになっていると強調した。

 フアン氏はTESLA P100の既に大量生産を開始していることを明らかにし、搭載システムはIBM、Hewlett Packard Enterprise(HPE)、Dell、Crayなどから搭載した製品が登場する予定で、出荷時期は2017年第1四半期になると述べた。

 では、TESLA P100を搭載するシステムは2017年第1四半期まで買えないのかと言えば、そうではない。フアン氏は続いて自社ブランドのラックマウントサーバーである「NVIDIA DGX-1」の存在を明らかにし、DGX-1は6月から米国で出荷を開始すると述べた。

 「DGX-1には8つのTESLA P100が搭載されている。デュアルXeonのサーバー250台分相当であり、昨年(2015年)までのMaxwellが4つ搭載されたシステムと比較すると、画像処理の速度が12倍になる」と述べ、ディープラーニングの学習などにTESLAベースのシステムを利用している研究者にとってメリットが大きいと説明した。

 そしてこの170TFLOPSを実現するDGX-1の価格は129,000ドル(1,419万円、1ドル=110円換算)であることを明らかにし、同社のWebサイトなどで受注を開始すると述べた。

ディープラーニングやAIにとってこの1年は長足の進歩だった
ディープラーニングは新しいコンピューティングのモデルである
よりモダンなAIを、ディープラーニング研究の成果が作る
今後10年間で55兆円のビジネスになる可能性がある
いわゆるハイパースケールコンピューティングにNVIDIAのGPUが使われている
TESLA M4(左)とTESLA M40を持つフアン氏
Facebookのディープラーニング研究の紹介
TESLA P100を発表
5つのTESLA P100のミラクル
P100を搭載したシステムは2017年第1四半期に投入
P100を8枚搭載したDGX-1
DGX-1の内部構造
DGX-1のサンプル
デュアルXeonサーバー250台分に相当
去年までのシステム(Maxwell×4)と比較してDGX-1は12倍高速
DGX-1を利用したBaiduの研究
こちらはGoogleの研究
DGX-1の価格は129,000ドル(日本円で1,419万円、1ドル=110円換算)
ディープラーニングの医療分野への応用も進んでいる
TESLAファミリーの紹介

Formula EのRoboraceは、NVIDIAのDRIVE PX2ベースであることが明らかに

 最後にフアン氏は、同社が近年力を入れている自動車向けのソリューションについて説明した。同社が提供している「DRIVE PX(開発ハードウェア)」、「DRIVENET(開発ソフトウェアキット)」などは自動車業界からも高い評価を受けており、1月のCESでは、DRIVE PXの後継となる「DRIVE PX2」を発表している。

 DRIVE PX2は、2つのTegraチップと、2つのPascal世代GPUを搭載した開発ボードとなっており、ADAS(先進安全運転機能)や自動運転/自律運転を実現するプラットフォームとして利用できる。今回フアン氏は再びDRIVE PX2を公開し、それとDRIVENETを利用して開発したソフトウェアを利用することで、自律運転を実現可能になるとアピールした。

 そして、Formula Eと呼ばれる電気自動車レースのプロモーターが、その併催として計画している「Roborace」の車両が、NVIDIAのDRIVE PX2がベースになっており、各チームはDRIVENETを利用してソフトウェアを開発することで順位を競うレースであることを明らかにした。

 これまで、Roboraceはドライバー抜きでの自律運転車によるレースであることだけは明らかになっていたが、どのような車両であるかは具体的には明らかにされてこなかったため、今回初めてそれらが明かされたことになる。レースは10チーム、20台で争われ、Formula Eの2016~2017年シーズン(Formula Eのシーズンは通常のレースのオフシーズンに始まり、6月頃終わりを迎える)に併催される予定だ。

自動運転/自律運転の研究も昨年大きく進化したものの1つ
自動運転で必要となる技術
DRIVE PXの小型版
Roboraceの自律運転のコンピュータとなるのがDRIVE PX2。チームはDriveWorksを利用してソフトウェアを開発することで競争する
DRIVE PX2。表に2つのTegra、裏に2つのGeForce
HDマップの研究も地図ベンダーと続けている、日本のゼンリンとも協業

(笠原 一輝)