■後藤弘茂のWeekly海外ニュース■
米国では、レンタルビデオはすっかりオンラインのオンデマンド配信サービスに席巻されている。NetflixやHuluなどが牽引し、AppleやGoogleも追いかけている。おかげでレンタルビデオ店やビデオレコーダは衰退状態だ。物理的なメディアやハードウェアから、オンラインサービスへとビデオレンタルは移行しつつある。そして、NVIDIAは、同じモデルをゲームでも成功させようとしている。そのためのカギが、GPUの仮想化だ。
GPUをサーバーに設置して、高品質の3Dゲームをサーバー側で走らせる。ユーザーは、あたかもローカルマシンで操作している感覚で、ネット越しに高品質ゲームをプレイできるようになる。PCゲームやPCゲームクラスのゲームを、TVやタブレット&スマートフォン、STB(セットトップボックス)など、非力なマシンでも、そのままプレイできる。こうしたオンデマンドのゲーミングサービスは、すでにOnLiveなどが提供しているが、NVIDIAはより経済的に実現する仕組みを提供することで、促進しようとしている。
GeForce GRIDの構想に向けて |
NVIDIAが提供するのは、サーバーCPUがサポートしているのと同じような、GPUでの仮想マシンのハードウェア支援だ。1枚のビデオカードで複数ユーザーをサポートできるようにすることで、より経済的でスケーラブルなゲーム配信サービスを実現する。エンドユーザーには、より安くサービスを提供できるようにする。
近い未来でのNVIDIAの目的は、ビデオで、レコーダやビデオ店からオンラインサービスへとシフトさせたような変化を、ゲームでも起こすことだ。ゲーム機やゲームPCを、クラウドサービスへと移行させてしまう。
しかし、より重要な点は、サーバールームにビデオカードを入れさせることだ。GPUはクライアントとHPC(High Performance Computing)には浸透しているが、通常のデータセンターにはまだ入っていない。データセンターにGPUがいったん入れば、GPUを利用したサーバーベースのサービスが興隆する可能性がある。NVIDIAにとって、新しいビジネスの柱が成り立つかも知れない。
ただし、これには大きなチャレンジがある。それは、GPUで複数の仮想マシンまたはタスクを円滑に動かさなければならないことだ。これは、GPUが苦手とする部分だ。なぜなら、GPUは内部ステイトのデータ量が多く、タスクの迅速なスイッチが難しいからだ。NVIDIAは、どうやってこの問題を克服したのかを、まだ明らかにしていない。NVIDIAが示したのは、下のような仮想化のレイテンシ(遅延)を含まないチャートだけだ。つまり、肝心な部分の仕組みは、まだ明らかにされていない状態にある。
GeForce GRIDのレイテンシ |
●ゲームコンソールはネットワークケーブルに
「“これ”が、あなたのゲームコンソールだ」。
Jen-Hsun Huang氏 |
そう言って、NVIDIAのJen-Hsun Huang(ジェンセン・フアン)氏(Co-founder, President and CEO)はネットワークケーブルを掲げた。Huang氏が、同社の技術カンファレンス「GPU Technology Conference(GTC)」のキーノートスピーチで明らかにしたのは、ゲームがサーバー側で実行されるようになれば、従来のようなゲームコンソールは不要になるというビジョンだ。クライアントに必要なのはネットワークだけになるというのが、NVIDIAの言いたいことだ。
NVIDIAのクラウドゲーミングのビジョンは、従来のサーバーサイドゲームとは違い、本格的なPCやコンソールクラスのゲームをサーバーからオンデマンド配信するというものだ。「NVIDIA GeForce GRID Cloud Gaming Platform」というシステムとして提供する。この、デュアルGK104系GPUのボードで、ゲームを走らせて、クライアントにH.264で配信する。クライアント側は、H.264でデコードできれば、クライアントソフトでゲームをリモートプレイできる。デモでは、ASUSTeKのTransformerを使ってPCゲームをプレイするところが公開された。
GeForce GRID用のプロセッサ | GeForce GRIDのデモ | GeForce GRIDのエコシステム |
実際には、すでに、OnLiveを筆頭に複数のベンチャがこうしたサービスを立ち上げている。しかし、まだ大きな波には至っていない。NVIDIAは、クラウドゲーミングを、より簡便で低コストにすることで、大きなムーブメントに仕立てようとしている。
David Perry氏 |
これは、映画や音楽の世界で起きた、オンラインサービスへの移行を、ゲームでも起こそうというものだ。GTCのキーノートスピーチでは、クラウドゲーミング企業の1つGaikaiのDavid Perry氏(CEO and Co-Founder)が登場、次のように述べた。
「私は、映画や音楽の産業で起きていることがうらやましかった。なぜなら、映画の場合は、(同じサービスが提供する)映画を、セットトップボックスやタブレットなど、どんなデバイスでも互換で同じように観ることができる。しかし、ゲーム産業はそうなっていなかった」。
「例えば、ある映画は、特定のブランドのTVでしか観ることができない、という状況を想像できるだろうか。これ(そうした状況にあるゲーム産業)は、おかしなことだ。そこで、もし、我々がゲームでも映画と同じことができたら、というアイデアが産まれた。そうすれば、素晴らしいゲームが、膨大な大衆市場を捕らえることができるのではないかと」。
映画や音楽は、どのクライアントでも同じコンテンツをオンラインのサービスで楽しむことができる。しかし、ゲームはプラットフォームハードウェアに縛られている。それを、クラウドサービスで打破しようというビジョンだ。
●ゲームをユーザーにとって手軽にするクラウド化
Jen-Hsun Huang氏は、クラウド化の利点は、ゲームへのアクセスを簡便にすることだと言う。
「クラウドの最大の利点は簡便さにある。例えば、自分のAndroidデバイスに入れていた音楽をクラウドにいったん上げてしまえば、新しいAndroidデバイスを買っても、起動すれば自分の音楽を楽しむことができる。クラウドは最も利便性の高いコンピューティングモデルで、我々はそのモデルをビデオゲームにもたらそうとしている。簡便なアクセスが可能になれば、コンピュータの使い方自体が変わる」。
PCゲームのハードルの1つは、最新PCゲームをプレイできるハードウェアを揃え維持することにある。Huang氏は、そうしたやっかいをクラウド化で解消し、誰もが簡単にアクセスできるゲーム環境を作ることが目的だと説明している。実際、OnLiveなどが評価されている点の1つはそこにある。
Phil Eisler氏 |
NVIDIAのクラウドゲーミングのカギは、GPUの仮想化だ。GPU上で複数の仮想マシンを切り替えて実行できるようにすることで、複数のゲーマーをサポートしようとしている。本来ならクライアントで走るゲームが、サーバーGPU上の各仮想マシンで走る仕組みだ。NVIDIAでクラウドゲーミングを担当するPhil Eisler氏(General Manager, Cloud Gaming)は次のように説明する。
「現在の第1世代のクラウドゲーミングでは、(ハードウェアを)1対1にしなければならない。1ユーザーに対して、1コンピュータ、1グラフィックスカードで、サービスを提供するため、それなりにコストが高く電力も大きかった。しかし、Keplerアーキテクチャでは、まず効率が高いために半分の消費電力でレンダリングできる。また、ビルトインされたハードウェアビデオエンコーダのおかげで、エンコードもオフロードできる」。
「さらに、仮想化によって、1サーバー当たり1ゲーマーではなく、8ゲーマーまでを効率的にサポートできる。そのため、コストを下げて電力消費も半分に下げることができる。Keplerなら、ゲーム配信のコストを、Netflixのような映画のストリーミングのコストに近づけることができる。それによって、例えば、月10ドル程度のサブスクリプションで多数のゲームを楽しめるようになるだろう」。
サービスを提供する側にとって、コストが安くスケーラブルな環境を提供できるのがGPUでの仮想化の利点だ。
●NVIDIAからのゲーム機への挑戦
では、NVIDIAのクラウドゲーミングは、ゲーム機に対抗できるのか。NVIDIAは3社の次世代据え置きゲーム機には絡んでいないと言われている。そのため、クラウドゲーミングを推し進めても、2014年以降は競合しないだろう。ゲーム機に対してフリーハンドだから、NVIDIAはクラウドゲーミングを推進するのに遠慮がいらない。そして、クラウドゲーミングで強力なサービスが興隆すれば、ゲーム機に対する脅威になる可能性はある。
しかし、逆を言えばこれはゲームプラットフォームベンダにとっては大きなチャンスともなる。今後のゲームプラットフォームのプランとして、クラウドベースまたはクラウド併用という選択肢がより現実的になるからだ。極端な話、プラットフォームを仮想化(ソフトウェア&サービス)してもいい。
そもそも、PLAYSTATION 3(PS3)でCell Broadband Engine(Cell B.E.)構想を立てた時は、ソニー・コンピュータエンタテインメント(SCE)はこれにある程度似たことを考えていた。Cell B.E.をサーバーサイドにも入れ、家庭内の各機器にもCell B.E.を載せ、その中でコンピューティングパフォーマンスを共有するというビジョンだ。Cell B.E.の場合は、SPU(Synergistic Processor Unit)が独立したユニットになっており、メモリ空間に至るまでポータブルになっているため、分散コンピューティングがしやすい。SCEは、それを利用したクラウドゲーミングやクラウドサービスを構想していた。NVIDIAの構想は、もっと単純なクライアント-サーバーの切り分けだが、サーバー側に入れさせてサービスを成り立たせようというポイントは似ている。
●NVIDIAにとってデータセンターにGPUを入れさせることが重要サーバーサイドでゲームを実行するという発想は、もともとサーバーサイドのゲームを提供してきたWeb/ソーシャルゲームメーカーにとってもチャンスと映るかも知れない。当初は単純な2Dゲームからスタートしたこの市場も、成長とともに、より高品質なゲームへと発展する兆しを見せている。こうしたゲームベンダーにとっては、ゲームはサーバー側で走るのが当たり前で、クライアントで走るゲームは作り慣れていない。ソフトウェアの枠組みさえ提供されれば、こうしたメーカーもNVIDIAのクラウド3Dゲーミングのビジョンに誘えるかも知れない。
NVIDIAは、CPUメーカーに浸食されつつあるPCグラフィックス市場からの半脱却を目指している。NVIDIAという企業が生き残るためだ。そのため、上はHPC(High Performance Computing)市場に、下はモバイル市場へと事業を拡張した。しかし、それでもまだNVIDIAを支えるには足りない。もしPCグラフィックスがCPUに飲み込まれてしまったら、HPCだけではNVIDIAのGPU開発費をまかなうだけの市場規模にはならない。そのため、NVIDIAはPCグラフィックスでもGPUの存在感を高めつつ、さらに新しい市場の拡大が必要だ。データセンターへの進出は、明らかに、こうした流れに沿ったNVIDIAの新戦略だ。
おそらく、NVIDIAは、クラウドゲーミングから発展して、データセンターのGPUを使ったサービスがゲーム以外にも拡大することを期待しているだろう。クライアントマシンで力不足な3Dグラフィックスやシミュレーションなどを、サーバー側で実行できるのは魅力だ。しかし、そのためには、GPU仮想化の説明やエコシステムの構築を積極的に行なって行く必要がある。
GK104とGK110の比較 PDF版はこちら |