ニュース
NVIDIA、GTC Japan 2015ではディープラーニングにフォーカス
~GRID、自動運転、さらにPascalの説明も
(2015/9/18 20:55)
NVIDIAは18日、GPU関連技術の最新情報を提供する開発者向けイベント「GTC Japan 2015」を開催した。
同イベントはNVIDIA開発者による基調講演から始まり、テクニカルセッション、チュートリアルセッション、スポンサーセッションなど、GPU技術に関連した約60のセッションをNVIDIAだけでなく各大学/企業が行なう催しとなる。年々参加者が増えており、昨今の人工知能開発の注目分野の1つであるディープラーニング(深層学習)が主題ということで、申し込み人数は前回よりも1,000人ほど多い、2,400人に達したという。
今回のGTC Japan 2015の基調講演には、米NVIDIA副社長でソリューションアーキテクチャエンジニアリングを務めるマーク・ハミルトン氏が登壇した。基調講演は主にNVIDIAが産業向けに取り組んでいるトピックを説明しつつ、その採用実例として来賓者に具体的な利用方法を紹介するという流れだった。
まず紹介されたのは、NVIDIAのGPU仮想化技術「GRID 2.0」を採用した東京工業大学のスーパーコンピュータ「TSUBAME」だ。同大学で学術国際情報センター 副センター長を務める青木尊之教授が説明を行なった。
青木氏はCUDAの重要性について語りつつ、スパコンでは「VDI」(Virtual Desktop Infrastructure)がもっとも大切であると強調。例えば、大規模なデータを解析する場合など、データ量が数十TBに達するのが普通であり、データ転送のやり取りを行なうだけでも多くの時間を要するという。VDIを使えば、画面をクライアントPCに表示させるだけで済むため、プリポスト処理(結果の可視化)を含めて、データ転送時間の削減とセキュリティの大幅な向上に繋がると説明。実際にTSUBAME 2.5直結のVDIシステムを用いて、会場のクライアントPCにゴルフのバンカーショットによる1,670万個の粒子計算などを披露して見せた。
ハミルトン氏は、GRIDはこういった研究の専門家だけでなく、一般のビジネスユーザーに対しても利益をもたらすものであることも強調し、タブレット上で動かすアプリの外部レンダリングなどの例を挙げた。
次はディープラーニングについての説明で、まずはどういったものなのかという点を踏まえ、顔認識を学習させる場合の流れがスライドで示された。ディープラーニングは人間のニューラルネットワーク(神経回路網)をモデル化して考えられた人工知能のための学習方法であり、階層化して学習を進めていくのが特徴だ。例えば、第1階層では基本対象物の把握から始まり、次の階層では目や口といたようにデータを分割化……最終的にこれらのデータを元に顔を作り上げていき、このトレーニングを繰り返すことで認識精度が向上していく。
実際にどうやって学習を行なわせるのか、NVIDIAが提供しているディープラーニングのGPUトレーニングシステム「DIGITS」が用いられ、手書き文字を認識するための「MNIST」に加え、車の車種判別を行なう様子がデモンストレーションされた。プログラムはWebブラウザ上から操作するようになっており、ほとんどマウスによる数ステップの操作だけで行なえるようになっている。車種判別のデモでは、基調講演中に行なうには時間が掛かりすぎるとのことで、すでに40万枚の車種画像を学習済みのデータが用意されていたものの、その場でインターネット上で画像検索したスポーツカーを読み込ませ、どのような車種であるか調べると、99.83%の確率でスポーツカーであるとの回答が得られた。
ディープラーニングの説明のゲストとして呼ばれたのは、ディープラーニングのフレームワーク「Chainer」を開発し、6月9日にオープンソース化したことでも話題となったPreferred Networks代表取締役社長の西川徹氏。IoTが進化していく時代では機械が生み出すデータ量が膨大になるとし、全てのIoT機器がデータをクラウド上にアップロードするにはネットワークがボトルネックになってしまい、無理があるといったこれから訪れるであろう考えを示した。
西川はその回答として、個々のロボットがそれぞれ学習を行なう「分散協調型の強化学習」というモデルを提案。クラウドの中央集権型の処理から、エッジ(縁)側での協調処理が進むはずだと予測し、ここでカギとなるのがGPUであるとする。同社のChainerはマルチGPU処理にも対応したフレームワークで、他社のフレームワークと違い、ディープラーニングのネットワーク構造の変化に柔軟に対応できることなどを優位点とし、基調講演後のプレスカンファレンスで実際にディープラーニングの階層構造を表示させ、100層どころではない階層を見せてくれた。
NVIDIAは自動車の自動運転にも力を注いでいる。基調講演では米NVIDIA自動車担当のシニアディレクターであるダニー・シャピロ氏が登壇し、自動運転の精度向上にはディープラーニングが不可欠であるといった説明を行なった。
同士は説明の中で、NVIDIAが提供する自動運転用のコンピュータ「DRIVE PX」の実物を会場で披露。Tegra X1がベースのこのコンピュータはADAS(高機能運転支援システム)を提供し、車に搭載されるカメラやレーダーといったデバイスとのプラットフォームとして活用され、ディープラーニング結果のアップデートなどを行なう。
基調講演の最後に紹介されたのは、将来のGPU「Pascal」と「Volte」についてだ。Maxwellの次世代GPUに関して、ハミルトン氏はGPUロードマップを見せ、Pascalに世界最高の倍精度演算能力、広帯域メモリ、PCI Express 3.0の5倍の性能を備えたNVLink、メモリの共有化を図るユニファイドメモリが搭載されると述べた。
Voltaについては、日本IBMのハイエンド・システム事業部 理事の朝海孝氏が登壇し、SUMMITとSIERRAという2つのHPCで採用することを明かした。両システムはCPUにIBM POWER9を搭載し、インターコネクトにNVLinkを実装。ノードあたり40TFLOPS以上の性能を誇るというマシンで、2017年の稼働を予定しているという。