[an error occurred while processing the directive]

NVISION08レポート

ジェン・スン・フアンCEO基調講演
~ビジュアルコンピューティングの最先端を紹介

NVIDIA社長兼CEOのジェン・スン・フアン氏

会期:8月25日~27日(現地時間)

会場:米国カリフォルニア州サンノゼダウンタウン



 NVIDIAが主催するNVISION08は、25日(現地時間)のジェン・スン・フアンCEOによる基調講演で幕を開けた。フアン氏は、ビジュアルコンピューティングに関する初めてのカンファレンスとなるNVISION08において、いくつかの革新的とも呼べる実例を交えながら、現在ビジュアルコンピューティングがどの程度に進化しているのか、そしてそれがユーザーにどのような新しい体験をもたらすのかを紹介した。

 NVIDIAは、ビジュアルコンピューティング、すなわち映像に関する演算の中心にあるのはGPUであると考える。もちろんCPUも演算には関わるし、NVIDIA自身もCPUとGPUのそれぞれの特長を活かしたヘテロジニアス(異種混合)なコンピューティング環境の構築を目指しているが、3D CGをはじめとしたグラフィックス処理をもっとも得意とするのはGPUである。

 最初そのGPUは、固定されたグラフィックス機能だけを持っていたものが、汎用的な演算ができるようになり、OpenGLやDirect3Dだけだった言語がCなどにまで広がり、演算性能も飛躍的に向上した。

Folding@homeに参加するCPU(左)とGPU(右)の数と合計演算性能

 その一例としてフアン氏が取り上げたのが、Folding@homeにおける成果である。NVIDIAが開発したビジュアルコンピューティング用開発環境である「CUDA」を利用することで、現在GPUでFolding@homeに参加することができる。フアン氏によれば、現在約2万4千のGPUがFolding@Homeに利用されており、その合計演算性能は1,400TFLOPSに達するという。一方、Folding@homeに参加しているPC、すなわちCPUの数はおよそ264万個。これは台北市にある全PCの数に匹敵するが、その合計演算性能は288TFLOPSにとどまる。

 このように、大規模な並列演算処理においてGPUはCPUよりも遙かに高い性能を発揮するが、この演算性能が一般ユーザーにどのようなメリットや体験をもたらすのかということで、フアン氏は自動車などの設計に使うCADソフトを開発する独RTTのPeter C. Stevenson氏をステージに招き入れた。

 Stevenson氏は、ランボルギーニが世界20台限定で発売するスーパーカーのリアルタイムレンダリングをデモ。このソフトでは車の外観だけでなく、内装に至るまで緻密に再現し、リアルタイムでアニメーション表示できる。その緻密さは、シートの縫い目の1つ1つもはっきりと視認できるほどである。

 車の開発においては、外観を決定するにあたり、プロトタイプの作成が非常に重要になってくると言う。しかし、その作成には多大な時間とコストがかかり、細部まで突き詰めながら変更して、最終決定にもっていくまでには、さらにその何倍もかかる。また、今回のように、ごく少数しか製造しない場合は、設計が完了した後に、展示品を用意することができない。

 そこで、CGによって実写さながらのデジタルプロトタイプを作成することで、開発にかかる時間とコストを削減し、それがそのまま展示品の代わりにもなるのである。

RTTのPeter C. Stevenson氏 RTT上で制作されたランボルギーニ車のデジタルプロトタイプ。レイトレーシングで金属の反射なども精密に表現し、毎秒10個でアニメーションできる
エンジン部分の微妙な凹凸や、内装の縫い目や皮の表現なども非常に緻密

□関連記事
【2007年8月29日】RTT、設計からマーケティングまで支援する製造業向け3Dソフトをデモ
http://pc.watch.impress.co.jp/docs/2007/0829/rtt.htm

 続いてフアン氏は、もう少しPCユーザーに身近な例として、「Google Earth」と「NURIEN」を紹介した。Google Earthはもはや説明が不要なほど有名なソフトだが、3Dを用いたグラフィカルな地理的ブラウザにマッシュアップで観光情報から学習向けコンテンツまで、さまざまなデータを地図に重ね合わせて表示できる。

 NURIENは韓国のNurien Softwareが開発したSNS。SNSというと一般には文字情報が主体となるが、NURIENでは「Unreal Engine 3」を採用し、高度な3Dグラフィックによるアバターの表示が可能で、日本のゲーム「IDOLM@STER」に、SNS機能を付与した感じだ。デモでは、同社社長のTaehoon Kim氏自らが操作を行ない、新感覚のSNSを披露した。

Nurien SoftwareのTaehoon Kim氏 NURIEN上で再現された“バーチャル ジェン・スン”
自分の家の内装を変更したり、ゲーム感覚でアバターのダンス技術を向上させたり出来る ダンスはコミュニティで披露できる。Unreal Engine 3によって、高度なグラフィックス処理が可能なだけでなく、衣装の物理演算なども行なわれている

□関連記事
【2月29日】【西川】「CRY ENGINE」独自拡張「DUNIA ENGINE」、新生「UNREAL ENGINE3」(GAME)
http://www.watch.impress.co.jp/game/docs/20080229/3df.htm

 これらのデモに続いて、より最先端の技術を駆使したデモが紹介された。その1つがSportVisionによる、実写と3D CGのリアルタイム合成。これは、映像の中の情報を増強あるいは強調する目的で開発されたもの。

 直近の例で言うと、北京オリンピックのトラック競技のスタート位置に選手の出身国の国旗のアイコンが表示されたり、投擲競技で槍や砲丸が飛んでいくのと一緒に、地面に世界記録のラインが表示されていたのを見た人も多いだろう。

 これらは実際に地面にアイコンやラインが描かれているのではなく、リアルタイムでCGで合成しているのだ。このほか、会場ではフットボールのボールや選手の軌跡、カーレースで走っている車の周辺でどのように空気が流れているかを表示するなどの機能も紹介された。また、ステージ上のスクリーンに映し出されたフアン氏の足下にもリアルタイムでアメフトのグラウンドのヤードを示すラインが合成されて表示された。

 このシステムでは、前もって選手の情報や、会場の地形、車の形などの3次元データを用意する必要があるが、後はカメラの位置や角度あわせなど20分ほどの微調整を行なうだけで、実際にはその場に存在しない、あるいは目に見えない情報を視覚化してリアルタイムで合成でき、視聴者はより深い理解を得られるようになる。

スクリーンに映し出されたSportVisionのMarv White氏とフアン氏の足下にはアメフトのグラウンドの様な模様が表示されているが、これはリアルタイム合成したもの 実際は2人は無地の芝生の上に立っているだけ
リアルタイムでアメフトのボールの軌跡を表示 こちらは車にかかる空気抵抗の様子を視覚化したもの。車の3Dデータはあらかじめ用意しておくが、速度や位置からリアルタイムに計算して空気の流れを表示する

 続いて紹介されたのが、Microsoftが20日に発表した、2次元の写真から3次元空間を再生する「Photosynth」。解説は同社のJoshua Edwards氏が行なった。

 これは重なり合った部分を持つ複数の写真(具体的には数十~数百枚)を用意するだけで、コンピュータが自動的に、異なる写真上の共通するポイントを選び出し、各写真の位置関係を割り出して、3次元的に拡張して表示するソフト。

 たとえば最初にある建物を正面から撮影し、その後、その建物から少し横、あるいはすこし上の写真を撮ったとする。するとPhotosynthは、建物の正面写真を表示させた時に、その左右や上下を写した写真も角度や位置をそろえて表示してくれるのである。この状態から、カーソルやマウス操作で、視点を360度自由に変えたり、ズームインやアウトもできる。

 見た目の効果としてはGoogle Mapsの「ストリートビュー」に近いが、Photosynthでは実際に写真に写った物体の3次元モデルを内部的に作り出しており、そもそも撮影した位置や角度が異なる写真を一体化させる点で全く異なる。その様子は、Photosynth上でマウスカーソルをドラッグすると、クラウドポイントと呼ばれる、違う写真上で同じものと認識された無数の点が、完全な3次元グラフィックとしてリアルタイムに表示される。

 もう1つの特徴は、同じものを写していると認識された別の写真を組み合わせられる点。デモではアメリカのナショナルアーカイブの写真を使って、その中を移動し、最後にある文書の展示棚に行き着く。そこには分厚いガラスで保護された解像度の低い文書が表示されているのだが、ここには高解像度スキャナでスキャンされた文書の画像も用意されており、デジカメで撮った写真からスキャンされた画像にシームレスに移動できるのである。

 映画「ブレードランナー」では、1枚の写真を解析して、写真の画像を別の角度から見て、手がかりを探すシーンがあったが、Photosynthはこれを彷彿とさせるものがある。Photosynthは無償で公開されており、文字で説明されるより、実際に試した方が遙かにわかりやすいので、専用サイトを訪れることをお勧めする。

MicrosoftのJoshua Edwards氏 このように無造作に撮影された被写体の写真から、クラウドポイントと呼ばれる共通の点を探し出し、3D化する こちらがその結果を表示したところ。この写真ではわかりにくいが、もっと上下や左右の写真があれば、それらの写真も角度や位置を自動的に調整して同時に表示される
クラウドポイントだけを表示させたところ。内部では完全に3D化されているのが分かる ナショナルアーカイブの写真。中央に見える文書の展示棚に近づくと…… 別に撮影された文書の高解像度スキャン画像へとシームレスに移り変わる

□関連記事
【8月21日】複数の写真を合成して3Dモデル生成、MSが「Photosynth」公開(INTERNET)
http://internet.watch.impress.co.jp/cda/news/2008/08/21/20623.html

 最後に、Perceptive Pixelの創業者であるJeff Han氏がマルチタッチディスプレイによる新しいユーザーインターフェイスのデモを披露した。同社はマルチタッチインターフェイス技術を専門に研究している。今回、紹介したのは製品化されているものではなく、マルチタッチによってユーザーインターフェイスは将来どのように変化していくのかを示す技術デモだ。

 今回デモしたものは、おそらく背後ではx86 OSが動作しているものと思われるが、表に見えるのは全く新しいタイプのインターフェイスとなっている。これも、文字で説明するより、動画を見た方がすぐに雰囲気をつかめるので、同社のサイトを参照してもらいたいが、一言で表現すると、iPhoneのインターフェイスをさらに洗練させたものと言える。

 2本の指の距離や位置を変えることで、ウィンドウや画像を拡大/縮小、回転、移動させたりするのはiPhoneと同様だが、不要なウィンドウを指ではねのけると慣性を持ってウィンドウが飛んでいったり、画面上のソフトキーボードで検索を実行すると、検索結果の画面が1つ1つボロボロとこぼれるように落ちてきたりといった表現をさせているところに近未来的な感覚を覚える。タッチしないという点で大きく異なりはするが、映画「マイノリティ・リポート」のようなインターフェイスというと分かる人には分かるだろう。

 Han氏は、「従来のマウスは2軸の操作しかできず、入力インターフェイスとしてボトルネックになっている。マルチタッチによって、より簡単、かつわかりやすく操作できる」と主張。

 また、フアン氏が、「これは画面の次元化」と表現するように、グラフィック処理の進歩によって、コンピュータのスクリーンに新たな次元がもたらされることを示したデモだった。

Perceptive PixelのJeff Han氏 マルチタッチインターフェイスでは複数の人間が1つのスクリーンで同時に作業できる 「Jenhsun」の名前で検索をかけると……
検索結果として画像などが表示されるので…… 人物の輪郭に沿って指でなぞると、その部分だけが切り抜かれる。さらに、手先や頭の付近を指でさっとなぞると、手や頭の部分が振り子のように振れるという変わった機能も実装されている 女優のTricia Helfer氏もゲストに招かれ、SFドラマで、そこに存在しないCGロボットとのやりとりについての苦労などを語った

□NVISION08のホームページ(英文)
http://www.nvision2008.com/

(2008年8月27日)

[Reported by wakasugi@impress.co.jp]

【PC Watchホームページ】


PC Watch編集部 pc-watch-info@impress.co.jp
お問い合わせに対して、個別にご回答はいたしません。

Copyright (c)2008 Impress Watch Corporation, an Impress Group company. All rights reserved.