イベントレポート
【基調講演レポート】GeForceとTegraの新ロードマップを発表
~中小企業向けNVIDIA GRIDとなるVCAも
(2013/3/21 01:16)
米NVIDIAは、GPU関連の総合カンファレンス「GTC」(GPU Technology Conference)を、3月18日~21日(現地時間)の4日間に渡り、米国カリフォルニア州サンノゼにあるマクネリーコンベンションセンターで開催している。
その2日目となる3月19日に、同社創始者兼CEO(最高経営責任者)となるジェン・スン・フアン氏による基調講演が行なわれ、フアン氏はGPUやモバイル機器向けのTegraのロードマップを更新し、2015年に投入するGPU「Volta」、Tegraシリーズの2世代先の製品「Parker」を紹介した。
また、同社が新しいビジネスの柱として積極的に推進しているNVIDIA GRIDに関しても、OEMメーカーからNVIDIA GRID K1/K2ボードを搭載したサーバーが発売されることや、中小企業向けのNVIDIA GRIDサーバーとなる「VCA」(Visual Computing Appliance)をNVIDIA自身のブランドで販売することを明らかにした。
より強力なGPUで、よりリアルなレンダリングが可能になる
フアン氏は冒頭で、「今回の講演では大きく5つのことを語らせてもらう。それは3Dグラフィックス、GPUコンピューティング、新しい製品ロードマップ、リモートグラフィックス、そしてその新製品だ」と述べ、5つの分野にフォーカスを当てて講演を行なった。
その1つ目となる3Dグラフィックスは、NVIDIAの創業時の事業とも言うべきものだ。フアン氏は「我々はGeForce GTX TITANとよばれるGPUを先日発表した。TITANはスーパーコンピューティングにも、3Dゲームにも利用できる強力なGPUだ」と、GeForce GTX TITANを取り上げた。同氏は「GeForce GTX TITANでは工業デザインにもこだわっており、ヒートシンクなどを含め非常に魅力的に仕上がった」と、カードを手に持ってアピールした。
ここでフアン氏が紹介したのはWaveWorksという波のリアルタイムシミュレーションと、FaceWorksとよばれる人間の顔のリアルタイムシミュレーション。いずれもこれまでのGPUでは、リアルタイムに処理するのが難しいと考えられているジャンルだ。
WaveWorksでは嵐の海を再現。これまでの技術で海をレンダリングした場合には、飛沫などを表現することが難しかったが、GeForce GTX TITANと新しいソフトウェアを利用することで、それらをリアルタイムにシミュレーションすることができる。
また、人間の顔をリアルに表現するのも非常に難しい。“不気味の谷”とよばれる現象があるからだ。それを乗り越えて人間が親近感を持てるようにしていく必要がある。不気味の谷現象(Uncanny Valley)とは、日本のロボット工学者である森政弘氏(東京工業大学名誉教授)が提唱した現象で、ロボットの顔を人間に近づけていくと、近くなればなるほど人間が不愉快に感じる谷があり、それを超えると再び親近感が持てるようになるとされている。
フアン氏は「我々はGeForce 256の時代から人間の顔をリアルに表現できるようにさまざまな取り組みを行なってきた。今回デモするFaceWorksでは32GBのデータを400MBに圧縮したり、ライトマップ、バンプマップ、ソフトシャドーなどさまざまな技法を利用して不気味の谷現象を超える努力をしている」と述べ、NVIDIAのキャラクターである妖精のドーンや、男性の顔をFaceWorksとGeForce GTX TITANを利用してリアルタイムレンダリングして見せた。こういう技術を利用することで、例えばSNSやIMなどで、カメラでキャプチャした動きを相手側のクライアントに転送し、リアルなアバターをアニメーションさせることもできる。
広がるCUDAの活用
続いてフアン氏は、NVIDIAがここ数年力を入れてきたGPUコンピューティングソリューションについて説明した。GPUコンピューティングは新しいコンピュータによる演算のモデルだが、一般的に新しいコンピューティングの普及にはソフトウェアが先か、ハードウェアが先かという鶏と卵の問題がある。しかし、GPUコンピューティングではすでに普及しているGPUを利用することができたため、その問題を回避することができた。こうしてCUDAはうまく普及が進んでいる。
実際、同社がCUDAの取り組みを開始した2008年には、CUDAに対応したGPUは1億個だったのに対し、ダウンロードされたCUDAのソフトウェアはわずか15万回、GPUを採用したスーパーコンピュータはわずか1台、そして大学の関連論文数は4,000しかなかった。しかし、今ではCUDA対応GPUが4億3千万個あるのに対し、CUDAのダウンロードが160万回、50台のスーパーコンピュータに採用され、論文数は37,000へと、大幅に増加しているという。
そうしたCUDAを利用したソリューションとして、今後はクラウドサービスを提供する企業でのニーズが高まるとフアン氏は指摘。現在、ビッグデータを迅速に解析して、それに基づいたサービスを提供することに注目が集まっている。例えば、Twitterのツイートは爆発的に増えており、それを精密かつ迅速に分析してユーザーに新しいサービスを提供したりといったことが考えられる。従来のようにCPUで行なっていた場合には数分かかっていたが、GPUを使えば数秒で済むようになるという。
その実例として、音楽マッチングサービスの「SHAZAM」が紹介された。SHAZAMは、鼻歌や劇中の音楽などの音をスマートフォンやタブレットのマイクで拾い、そのデータをSHAZAMのデータベースと照合して実際の曲を探すというサービスで、1カ月で3億回の検索要求がある。SHAZAMのCTOであるジェーソン・タイタス氏は、サーバーにCUDAを採用した結果、検索にかかる負荷を減らし、より多くのユーザーからの検索要求に対応できるようになったとした。
続いてフアン氏は「フェラーリ F150を買おうと思ったら、その販売店を特定するのは簡単だ、世界で売っているところは1つしか無いから。しかし、雑誌に載っているタレントが着ている服を買いたいと思ったときはどうだろう?」と述べ、CORTEXICAが提供するイメージマッチングの機能を紹介。これはスマートフォンやタブレットなどで撮影した画像を元にそれをイメージ検索することで、eBayなどで同じようなデザインの服を探してくれるサービスだ。このような、スマートフォンやタブレットのバックエンドにサービスとして提供されるイメージマッチング機能などにもCUDAでGPUを採用していくことが、エンドユーザーにも大きなメリットをもたらすとアピールした。
新しいロードマップを公開、CUDA対応TegraはLogan、Parkerへと進化
次にフアン氏は3つ目の話題となる、同社のロードマップに関する説明を行なった。従来のGPUロードマップは、基本的に2010年に行なわれたGTC 2010で公開されたもので、2009年に投入されたFermiに引き続き、2011年にKeplerを、そしてその後継としてMaxwellを投入するというものだった。
Keplerの後継としてMaxwellを計画しており、このMaxwellでは統合されたバーチャルメモリを導入。さらにその後継として計画されているの「Volta」(ボルタ)について情報を初めて公開した。
MaxwellではCPUとGPUの仮想メモリを共有する仕組みを導入するが、その後継となるVoltaではGPUとDRAMを1つに重ね合わせ、1TB/secを超える超高帯域を実現する。GPUをグラフィックスに利用するにせよ、GPUコンピューティングに利用する場合にせよ、メモリの帯域幅は性能のボトルネックとなっており、スタッキングのようなは広帯域技術が将来的に必須となる。
また、フアン氏は同社のもう1つの中核製品であるスマートフォン/タブレット向けSoCであるTegraシリーズのロードマップも更新した。これまで同社は、すでに発表されており、間もなくOEMメーカーから搭載製品が出荷されるTegra 4(開発コードネームWayne=ウェイン)の後継としてLogan(ローガン)、Stark(スターク)という製品を計画していることを明らかにしていたが、今回、Loganの詳細と、その新しい後継となるParker(パーカー)の計画を明らかにした。
LoganはGPUが完全に一新され、Keplerコアが採用される。これにより、CUDA 5.0という次期バージョンに対応するほか、OpenGL 4.3にも対応する。2013年中にはサンプルを製造することが可能になり、2014年には製品版を製造することができるようになるだろうと述べた。
そして、Loganの後継としてはStarkが計画されていたが、直接的な後継はParkerと呼ばれる製品に置き換えられることになる。NVIDIAの関係者によれば、Starkもなくなったわけではなく、Loganの派生品として登場することになるという。つまりLogan+のような形で登場するということだ。
ParkerはDenver(デンバー)コアのCPUを採用する。DenverはNVIDIAが開発している64bit ARMコアで、サーバーからスマートフォンまでさまざまなセグメントに製品が計画されているが、具体的な製品レベルでDenverコアが採用されると発表されたのはParkerが初めてとなる。
また、GPUも進化しMaxwellアーキテクチャになり、FinFET(3D)を採用したプロセスルールを利用して製造される。現時点ではどのファウンダリを利用して製造するかは明らかになっていないが、TSMCにせよ、GLOBALFOUNDRIESにせよ、FinFETを投入するのは16nmや14nmといった、現在よりも2世代先のプロセスルールとなる。
また、フアン氏はLogan世代で導入されるTegraでのCUDA 5.0サポートに向けた開発環境として、開発コードネームKayla(ケイラ)とよばれる開発ボードも公開した。組み込み向けのCUDAプログラムの開発には実際にプログラムを走らせることができる環境が必要になる。x86+NVIDIA GPUという環境は容易に販売店で入手す可能だが、ARM+CUDA対応GPUという環境はどこにも売っていない。そこで、Loganがリリースされる前にソフトウェア開発に取り組みたいエンジニアのためにKaylを用意する。
引き続きNVIDIA GRIDを推進
最後にフアン氏は4つ目と5つ目のトピックとなるNVIDIA GRIDと関連製品の説明を行なった。
NVIDIAは、GTC 2012においてNVIDIA GRID(当時はGeForce GRIDと呼ばれていた)というクラウドベースのGPUに関する発表を行なっていたが、今回、それに対応した具体的な製品が登場した。
NVIDIA GRIDは、従来はクライアントPCにあったGPUを、サーバー側に移行し、レンダリングや演算などはクラウド側で行わせて、クライアントはサーバーからストリーミングされてくる映像を表示するという仕組みになっている。こうしたクライアントPCを仮想化する技術は、すでにエンタープライズユースでは普及が進んでおり、CITRIXやVMware、Microsoftなどがソリューションを提供しているが、NVIDIA GRIDの大きな違いはグラフィックス性能に焦点を当てていることだ。
一般的な仮想マシンではCPUを仮想化するが、GPUの仮想化はほとんど進んでいない。NVIDIA GRIDでは、サーバーGPUでレンダリングした結果をクライアントに送信する際には、Kepler世代で導入されているH.264のハードウェアエンコーダーを活用している。データはリアルタイムで圧縮して転送するため、GPUがローカルにあるのと同じ感覚で利用することができる。
また、現在製造業などでは、ローカルPCにQuadroなどの強力なGPUとCADやCAEなどのソフトウェアを組み合わせてデザインや物理シミュレーションなどを行なっている。この場合、データは必ずローカルに持たなければいけないため、複数の拠点間でデータを共有したい場合やデータのセキュリティなどで課題があった。NVIDIA GRIDを導入すれば、データはすべてサーバー側にあるので、ローカルにデータを持つ必要が無くなるというメリットもある。
今回フアン氏はNVIDIA GRIDに関して2つの発表を行なった。1つは同社ブランドで提供されるVCA(Visual Computing Appliance)で、もう1つがNVIDIA GRID向けのGPUカード(NVIDIA GRID K1/K2)を搭載した製品が、Cisco、Dell、IBM、HPなど大手サーバーベンダーなどから出荷されるというニュースだ。
VCAは中小企業向けのソリューションで、上位モデルはデュアルソケットのXeonプロセッサ(32スレッド)、メインメモリ384GBで、2つのGPUを搭載したNVIDIA GRIDカードが8枚搭載される4Uのラックマウントサーバーで、最大で16ユーザーをサポートできる。下位モデルは16スレッドのXeon、192GBメモリに8個のGPUを搭載し、8ユーザーまで対応できる。価格は前者が39,900ドルで、1年ごとに最低4,800ドルのソフトウェアライセンス契約が必要になる。後者は24,900ドルで、同じく1年ごとに最低2,400ドルのソフトウェアライセンス契約が必要になる(ソフトウェアには基本OSとなるHyperVisorとWindows 7のライセンスが含まれる)。
VCAを利用したデモとして、AppleのMacBook ProからサーバーのWindows 7の仮想マシンへアクセスして、3Dレンダリングソフトウェアなどを3つ同時に走らせる様子などを披露した。VCAを導入すると、クライアントは何でもよく(実用的かどうかは別としてスマートフォンでもよい)、タブレットからのアクセスもデモした。
ファン氏は「このNVIDIA GRIDとVCAにより、ワークスタイルは大きく変わることになる。エンジニアは自分の席に座っている必要は無くなり、アウトソースもより容易になるだろう」と述べ、VCAをアピールした。