イベントレポート
付けた、見た、聴いた、触ったHoloLens
(2015/5/4 10:39)
Microsoftが開発中の拡張現実ヘッドセットHoloLens。Buildの基調講演でも数々のデモンストレーションが紹介され、その近未来感がアピールされていた。一部の希望者には体験ツアーが用意され、実際に装着しての体験することができた。ここでは、その概要をお伝えしよう。
厳戒体制の中での体験ツアー
指定された時間にカンファレンス会場内のプレスルームに行くと、名前が確認され、メモ帳とボールペンが手渡された。どうやら、このメモ帳にインプレッションを書き込めということらしい。全員が揃ったことを確認すると、スタッフが先導して、会場の隣のホテルまで案内された。このツアーは、カンファレンスの2日目午後から約30分間のプログラムとして時間を予約して参加するようになっていた。このレポートは、カンファレンス最終日の午後に参加したセッションでのインプレッションだ。日時の異なるほかのセッションの内容がどのようなものだったかはまるでわからない。
ホテルに着くとそのままロビーで待てという指示。10分間程度待っただろうか、その間も、エレベータからツアー参加者たちが興奮気味に降りてくるのが見える。
しばらくして、エレベータで28階に案内される。エレベータを降りるとスタッフが「ようこそHoloLensの世界へ」とお迎えしてくれる。まるでテーマパークのアトラクションだ。どうやら、フロア全体を借り切っているらしい。
まず、そのままロッカールームに連れて行かれて身に付けているスマートデバイスを格納するように指示される。そのためにホテルの部屋にカギつきのロッカーを持ち込んだようだ。体験セッションには、カメラもPCも、そして、スマートフォンも、スマートウォッチも持ち込むことはできない。だから、ここからの描写は記憶と、与えられたメモ帳に書き付けた覚え書きだけを元にしている。
荷物を預けると、次の部屋に通され、スタッフによるガイダンスが行われた。ここで、GGBと呼ばれる各種のインタラクションについて説明される。カーソル、ジェスチャ、マイクなどをどう使うかが概念的なものとして紹介された。
デバイスは前後にスライドして調整できる。だから、メガネをかけていても視度の調整ができる。さらにこの部屋でIPDを測られた。IPDというのは、瞳孔間距離と呼ばれるもので、左右の瞳の間の距離を示す値だ。測定されたIPDは68.5。その値が名刺サイズのカードに記入され、参加者1人ずつに手渡された。
さて、いよいよ別室に移動して体験が始まる。同じフロアの全ての部屋が体験ルームになっているようで、参加者は1人1人が別の部屋に招き入れられる。2人の担当者が1人の参加者に専任となり、部屋の中に迎え入れられる。こちらは1人だけで試されるがままに頭部ににデバイスを付けてもらう。このときに先のIPDを書き込んだカードを手渡し、その値にしたがってデバイスを調整する。この値がきちんと設定されていないと、効果的な3D体験ができないようだ。
ヘッドセットは意外にズッシリとくる。決して軽くはない。それでも、頭にきちんと固定するとあまり重さは負担にならない。だが、長時間の使用には無理がありそうだ。
CADと連動した拡張現実
部屋には Denver Commnication Centerとされるペーパークラフト風の模型がテーブルの上に置かれている。その右横にディスプレイが置かれていて、そこでは3DモデリングのCAD画面が表示されている。そして、2D画面での3D表示には限界があることが説明された。
デバイス越しに模型を見ると建物のまわりの様子が分かる。どうやら冬の景色で残雪がそこかしこに見えて寒そうだ。米国のステーキチェーンで有名なルースクリスステーキハウスなども見つかる。とにかく、デバイスをつけた状態で模型の建物の周りをぐるぐると回るとそれに応じて実際の風景がデバイスに映し出されるのだ。後ろを振り返ると、そこにあるはずの光景がちゃんと見える。そこはホテルの一室ではなく、まさに、冬のデンバーだ。
建物の中庭に別の建造物を配置するためにCADを操作する。ディスプレイ上に建造物が表示されると、それと連動して模型側の中庭にもホログラムとして建造物が出現する。CADで建物の形状を変えるなどの操作をすると、模型内のホログラフにもそれがリアルタイムで反映される。
CADの操作はマウスを使って行なう。回転や高さの変更はドラッグ操作で特に難しいものではない。そのマウスカーソルをディスプレイの左端に突き当てると、まるで、マルチディスプレイであるかのように、カーソルはディスプレイの外に飛び出し、ホログラムを直接ポイントできるようになる。そして、ホログラムを直接ドラッグし、CAD画面と同じように、建物の高さを変えたり角度をつけたりといった操作ができるのだ。
ひとしきりCADを体験したあとは、隣の区画に移ってレンガ張りの壁に囲まれたスペースに通された。デバイス内のホログラムでは、レンガ内部の様子が透けて見えるようになっている。この状態で、ドアをどこに付ける、内部の配線がどうなっているかなどが分かることが体験できた。壁の内部にパイプがあってドアの設置に邪魔なので、指でのクリックと音声によって撤去を指示すると言ったこともさせられる。4畳半ほどのスペースだが、壁沿いにぐるぐると歩いたり、しゃがんだり、立ち上がったり、寝転がったり、天井を見上げたりしてみたが、特に遅延することなく、デバイス内には3Dの映像が表示されていた。壁に近寄ればホログラムもそれに追随する。ホログラムに触れないのがもどかしい。
ゴーグルの中に見つけた近未来
デモはこれで終わりだ。そのまま5Fにエレベータで降り、ガラスケースの中に展示されたデバイスを撮影しておしまい。
実際にHoloLensをつけてみての印象だが、とにかく付けてちゃんと見るのが難しい。身に付けたことがないデバイスなので、どう表示されているのが正しいのかが分からないのだ。
言葉にするのは難しいのだが、付けた感じはスキーゴーグルくらいの視野があるが、ゴーグルほどの密閉感はない。視野の中に四角い画面が置かれ、そこに画像が矩形として投影されるイメージだ。その矩形の外側は現実であり、そこに拡張現実としての映像が見える。その矩形がバーチャルであることを思い出させ、ちょっとしたガッカリ感を醸し出している。矩形ではなく、特定のオブジェクトが切り取られたように表示されるのが望ましいと感じた。
デバイスを装着する際の上下の位置調整はちょっとやっかいに感じた。これをきちんとしていないと、視野の真ん中に映像の矩形が表示されない。それに少し上下がずれただけでも何も見えなくなってしまう。
さらに、表示される画像は透過度が低く、その向こう側が見えない。オブジェクトがそこにあってその向こう側が見えないというのは当たり前なのだが、例えば、そのオブジェクトを指先でコントロールしようとすると、その指は物理的にオブジェクトの向こう側にあるため見えないのだ。仮想的な位置関係は「瞳→指→オブジェクト」の順のはずなのだが、現実には「瞳→オブジェクト→指」となる。重なりの位置関係が異なるというそこに大きな矛盾を感じてしまった。
また、今回の体験で提供されていたホログラムは、それほど精巧なものではなく、表面のテクスチャなども現実にはほど遠いものだった。リアルな光景と、仮想光景とを、ヘッドマウントディスプレイの中で、さらに効果的に融合させるためには、もう1段階、2段階のステップアップが必要だろう。
それでも、人間の動きに対してリアルタイムで追随するホログラムの表示には、遅延などは感じられず、実にスムーズに表示されていた。そのホログラムを指先でコントロールできるという体験はかつてないものであり、人間の動きのセンシングから、それにしたがった画像表示のコントロールまでをスタンドアロンで行なっているのだとすればすごいことだ。将来的にプロセッサ等が進化すれば、もっとリアルな現実感が得られるようになるだろう。今回のデモでは、その確実にやってくるであろう未来を垣間見ることができた。