山田祥平のRe:config.sys
GUIは今、WYSIWYTへ - Research@Intelより
(2013/7/12 00:00)
今、時代のトレンドは急速にタッチに収束しようとしている。マウスのようなデバイスを使い、ポインタを使って間接的にオブジェクトを指し示すことで機械と対話するなんとももどかしい方法でGUIの時代が始まり、ようやくオブジェクトにガラス越しに触れるタッチの時代を、今、我々は経験している。そして、その先にくる新たなGUIのスタイルとは。
センサーが変えるスクリーンの概念
Intelが米・サンフランシスコでReserch@Intelと称するイベントを開催した。Microsoftの開発者向けイベント //build/の開催されたのと同じ6月の最終週だったので、日程に余裕を持ってサンフランシスコに入り、イベントに参加した。イベントの概要については笠原氏のレポートに詳しいので、そちらをご覧いただきたい。
Intel Labsは、同社CTOであるJustin Rattner氏率いるIntelのR&D部門で、製品部門からは独立した分野の技術開発を行なっているところだ。いわば未来を創る人々がいる部署といってもいい。
笠原氏の言葉を借りれば、11年目を迎えたこのイベントは、例年、Intel Labsの文化祭のようなものであり、研究者たちが模擬店をブースとして出店し、日頃の研究成果を発表する形式をとっている。
実際、ホテルの大宴会ホールが個々の研究発表スペースに区切られ、それぞれがデモンストレーションの場を設けていたのに加え、ちょっとしたステージが敷設されていて、研究者が入れ替わり立ち替わりプレゼンテーションをしていた。まさに文化祭だ。
展示の中で、個人的に興味を持ったのはディスプレイ関連のものだった。
1つは、笠原氏のレポートにもあるThe Internet of Displayで、1つの端末のディスプレイ出力を複数のディスプレイに出力したり、複数の端末の出力を1つのディスプレイにまとめる技術だ。それをWi-Fiを使って行なうという。これはこれで面白い。たぶん、将来的には、ウィンドウ単位でのマッシュアップ出力などもできるようになるのだろう。応用範囲は広いように思う。
さらに別のデモでは、テーブルの上にプロジェクタ投影されたWindowsの画面を、タッチで操作できるというものが紹介されていた。こちらは、プロジェクタのそばにごく一般的なWebカメラが設置され、それが投影面を監視し、タッチする指の動きを認識するという仕組みになっていた。だから、実際にタッチするのはテーブルなのだが、それでWindowsを操作できるのだ。
一方、少し大がかりなデモもあった。そこでは、リビングルームのテーブルにプロジェクタから複数枚の写真が投影されていて、個々の写真を指先でドラッグして動かすことができる。ピンチによる拡大や回転も一般的なタッチ操作でできる。そして、一見、普通のフォトフレームのように見えるデバイスを、個々の写真に重ね合わせると、写真が、フォトフレームに移動するのだ。また、写真を大きなジェスチャーでテーブルの外方向に投げると、離れたところにある大スクリーンに、まさに空間を写真が飛んで行ったかのごとく、200型はあるかと思われる巨大スクリーンに投影される。これらの体験を複数台のプロジェクタと、特殊なセンサーを使った動体検知の複合技で実現しているのだ。
身の回りのものはすべてタッチできる
その昔、フラットパネルのスピーカーを開発しているNXTによるデモを初めて見たときのことを思い出す。あの時は、手で叩いてコンコンという音がするものであれば、何だってスピーカーになるという説明を受けた。すべてのものが振動板になり、エキサイターを使って、面を振動させる仕組みだ。かつて、NECのPCがディスプレイの表面を振動させてPCオーディオを実現する仕組みとして、この技術を使った製品を「SoundVu」という名前で提供していた。
この技術を使えば、身の回りのすべてのものがスピーカーになるわけで、音を出すには音を出すための専用の箱がいるという概念を根本から覆すものだった。
今回、Research@Intelのディスプレイ関連のデモを見て同じことを思った。これなら、身の回りにある触れられるもの、壁や床を含むすべての面が、タッチ可能なスクリーンになるんじゃないかということだ。すなわち、「What you see is what you touch」の世界である。
今、ぼくらは、スマートフォンやタブレット、もちろんIntelが提唱するところの2-in-1 PCでハードウェアとしてのスクリーン、多くはガラス面をタッチしている。ただ、それをそのまま応用して次のステップに進むのでは、家の中のあらゆる「面」に敷き詰めるようにタッチセンサーを実装しておく必要がある。これは現実的ではない。
だが、離れたところから家の中全体を俯瞰し、さらに部分部分を補助的にセンスするセンサーを配置しておくことで、家の中のあらゆる「面」がタッチ可能なデバイスとして機能するようにできれば、少し状況が変わってくる。いや、タッチすら必要なく、すべてはジェスチャーで大丈夫ということも考えられる。
例えば、ぼくらは今、TVを見るためにTVという箱の前に陣取る。そして、そのあたりに転がっているリモコンを手にとって、物理的なボタンを押して、TVの電源を入れ、チャンネルを選び、ボリュームを調整してコンテンツを楽しんでいる。
だが、目の前のテーブルの上で、TVと手書きするなど、何らかのジェスチャーをするだけで、瞬時にそこにリモコンとミニTV映像が投影され、そのタッチ操作で番組を選び、見たい番組が決まったら、それを任意の壁面に投げるといったインターフェイスでTVを楽しめるかもしれない。もっとも、大画面用の四角い領域をTVのためにあちこちに確保するのは大変だ。きっとTVを投影する面は一定になるだろうとも思う。それを鑑賞するために座るソファの位置なども考慮しなければならないからだ。
今は箱としてのTVが、その投影場所を占有予約しているようなものだが、そういう時代には、壁の一部をTV投影用に確保していくといった考え方をする必要があるかもしれない。
同様にキッチンでは、調理台そのものがスクリーンになる。だから食材や調味料で汚れた手でレシピのページをめくるのも気にならない。つまり、デバイスの防水防塵なんてことは意味がなくなるかもしれない。
加えていえば、洗面所やドレッサー、クローゼットの鏡も、そのうちスクリーンになるのかもしれない。たとえ裸でその前に立ったとしても、タッチの操作でバーチャルに洋服やアクセサリーのレパートリーの組み合わせを試せるのだ。
ただ、今のように目の前に立ちはだかるスクリーンに正面から立ち向かうというスタイルで機械と対話することは少なくなるんじゃないかとも思う。
おはようからおやすみまで暮らしを見つめるコンピュータ
将来のマンマシーンインターフェイスは、集中から分散へとトレンドが遷移するのだろう。つまり、1つの小さな機械の中にテクノロジーを詰め込み、背後のクラウドがそれを支援、デバイスと人間が対話するような凝縮型のインターフェイスではなく、どこかに機械はあるにせよそれは黒子の存在で、人間と接する部分は、よりナチュラルなスクリーンとして人間が暮らす環境の中に溶け込むように分散するわけだ。
Intelによる今回の技術展示を見ていても、今のPCが今のような形で残るのは、いわゆる業務用としてだけのような気もしてくる。もちろん、趣味の領域は別としてだ。