森山和道の「ヒトと機械の境界面」

ポストGUIの可能性を探る
~慶應義塾大学安村研究室探訪記



慶應義塾大学 安村通晃教授

 現在のPCやPDAは、マウスやキーボード、タッチパッドなど、限定された入力方式しか持たない。同時に一つのコンピュータだけ使っている間はそれでも良かった。だがこれからのコンピュータ環境では複数台のコンピュータを同時に使うことも多くなるだろう。また、コンピュータとは気づかないような使われ方や、それとは分からない場所に埋め込まれていくことになる。

 たとえば、壁にぶら下がっている時計やカレンダーが実はフレキシブルなディスプレイと基板で構成されたコンピュータで、別のスケジューラ・ソフトと同期している、といったこともあり得る。そのようなシチュエーションでは、キーボードを使うのは如何にも不自然だし、そもそも不自由だ。

 定義があまりはっきりしないのだが「マルチモーダル(multimodal)」という言葉がある。複数の入出力方式、複数の感覚を使う技術のことだ。慶應義塾大学の安村通晃教授の研究室では、マルチモーダルをはじめとした新しいインタフェース技術の研究を行なっている。今やみんなが同じことを言い出しているので新鮮味に欠けるのだが、あまり意識せずに使える、ということがキーワードになる。非常に多くの研究を行なっている安村研究室だが、いくつかの研究を見せてもらった。


●アクティブベルトとユビ・フィンガー

 たとえば塚田浩二氏による「アクティブ・ベルト(ActiveBelt)」は、振動で自分が行きたい場所の方向を示してくれるベルト。地図を見ながら歩いていると、車や人にぶつかりそうになって危ない。うっかり電信柱にぶつかりそうになった人は多いだろう。最新の携帯電話を使ったナビゲーションでも同様の問題がある。見知らぬ土地ではつい地図を見ながら歩いてしまうものである。

 だがアクティブベルトをつけておけば大丈夫。GPSで自分の位置座標をベルトが把握し、8つの振動計による振動で地図を見なくても目的の方向を教えてくれる。服の上からでも問題ない。目的地が近づくと振動の頻度があがる。現状のものでは座標を入力する必要があるが、もし製品化となったら、地図上で目的地をクリックすれば連れて行ってくれる、といったものにしていきたいという。

 GPSの精度やアプリそのものへの信頼感の付与など課題は多いと思われるので本当の実用化までには意外と時間がかかるだろうが、場所ナビアプリの一つの提案としては面白い。また、ベルトという常に身につけている割にはあまり注目されていないモノへの着眼もユニークだ。見た目にも普通のベルトに改良していく予定だという。

アクティブ・ベルト。あらかじめ目標地点をセットしておくと、ベルトの振動によって方角や距離を案内してくれる

 同じく塚田氏による「ユビ・フィンガー(Ubi-Finger)」は、見た目はゴチャゴチャした指サックみたいだが、実は情報家電制御を想定目的としたジェスチャ入力デバイスだ。ベンドセンサー、赤外トランスミッタ、2軸の加速度センサ、情報提示用のLEDを持ち、ライトやテレビなどを指さすことで機器を特定し、指を曲げるなどの簡単なジェスチャーで操作することができる。

 ジェスチャ認識そのものはRS-232C経由でPCにデータを送信することで行なっている。情報家電用としてだけではなく、たとえばマウスの代わりにも使えると思う。そうすればキーボードからほとんど手を動かすことなく、指先でカーソルを移動させることができる。あまりやってると指がつってしまうかもしれないが、面白いデバイスだ。もし指輪大にまで小型化させることができれば、さらに可能性が広がると思われる。名前はもちろん「ユビキタス」と「指」をかけている。

ユビ・フィンガー。ユビの曲げ伸ばしなどによってボリュームの調節やTVのチャンネル切替などができる

●仮想情報中華テーブル ~データジョッキー~

 以上2点は実際のデモは見られなかったのだが、ほかのモノは実際のデモも見せてもらった。

 児玉哲彦氏の「データジョッキー(DataJockey)」は、いわば「仮想の中華テーブル」を実現して、そこで写真をやりとりするアプリケーション。PDAなど携帯型情報端末同士で、写真データなどをやりとり・共有する上での新しい情報共有やコミュニケーションの形として提案したいという。使い方は極めて単純で、他人と共有したい画像を選択し、ポンと「テーブル」の上に出す。そしてジョグダイヤルを回すと、その仮想テーブルが回転し、別の端末上に画像が現れるというものだ。同時にグルグルとジョグダイヤルを回すと、お互いの画面上に写真が行ったり来たりする。まさに中華テーブルだ。

データジョッキー。ソニーのPDA「クリエ」上で実装されている データジョッキーのシステム概要図

 テーブルに乗せたファイルは、実際にはサーバーの上にあるのだが、ネットワークを全く意識しないでも使える。

 現段階では物理的な端末間の関係を把握することはできないが、それでもジョグダイヤルを回すだけで相手の端末上に画像を送れるというのは十分面白い。手元にある端末で、相手の端末上に出すか出さないかをコントロールできるところが特に面白い。もともと回る中華テーブルを考えたのも日本人だと聞いたことがあるが、「回す」という日本人好みの操作でファイルを共有することの面白さを実感する。まさに回覧だ。

 将来的には、ファイルを単に見せるだけなのか、ダウンロードまで許可するのかといったことも、ジョグダイヤルによる簡単操作で制限するといった機能なども実現していきたいという。現状のままでも携帯電話のアプリの1つとして、あるいはカードゲームなどに使うことは十分可能だろうと思われる。また各種報道を見ると、近い将来、NFC(Near Field Communication:近距離無線通信技術)が実装される端末や携帯電話が登場すると思われるが、そういった新しいプロトコルのアプリとして非常に面白そうだ。

●情報と情報の出会い系 眺めるインタフェース~メモリウム~

メモリウム

 渡邊恵太氏は常時接続、24時間オフにしない時代における眺めるインタフェース「メモリウム(Memorium)」を提案する。ウェブサイトから実際にダウンロード
可能なので実際に見てみるのが一番だが、イメージとしては、水槽のような空間の中にキーワードを書いたカードが浮遊し、カードが中心で交叉するとgoogleでAND検索をかけ、その実行結果を新しいカードとして提示する、というものだ。

 積極的に情報を取りにいくのではなく、何となく表示していくものである。操作を前提とせず、ぼんやり眺める、あるいは見なくても環境映像的に情報を提示するものだ。各カードは、検索を2回実行すると消えるようになっている。実装はマクロメディアのFlashで、Google Web APIsを使っている。

 特に目的もなく、何となく自分が興味を持っている事柄がキーワードとして提示され、その中から思わぬ関係を持つものが発見できる(かもしれない)という点が面白い。取材の折りにも、偶然、検索結果として提示されたカードの内容に安村教授が興味を示し、URLをメモするというシーンがあった。

 メモリウムは「水が流れるごとく淀まない」(安村教授)。情報の流れを視覚的に提示する。それぞれのカードが「動いている」という点が人を惹きつけるのかもしれない、と渡邊氏も語る。

 なおキーワードの抽出は、MLやウェブの記述から自動で行なってくれるという。浮遊するカードの移動速度は好みに合わせて調整できる。

 渡邊氏は「ウェブリウム(Webrium)」というものも作っている。はてなアンテナで取得した更新情報と連動して、更新されたWebを表示するものだ。他にもAPIを公開しているデータベースであれば、似たようなことが可能なので、様々な可能性が考えられる。たとえば書影がいっぱい浮遊していて、交差すると新しい本が検索されて提示されるとか。

●視覚に影響される運動 ビジュアル・ハプティクス

ビジュアル・ハプティクスの一例。右側に行くほど強い風が吹いているようなイメージで、カーソルを扇風機の下に持っていくと下へ流される

 もう1つ、渡邊氏が見せてくれたデモは「ビジュアル・ハプティクス(Visual Haptics)」。カーソルを使って視覚だけで手触り感を表現しようというものだ。たとえばザラザラっぽいテクスチャーの絵の上でカーソルを動かすと、ガサガサという感じでカーソルが揺れたり、トタン屋根のようなところを滑らせると、ガタンガタンと前後にカーソルが動き、音がする。影を付けた半球の上を滑らせると、カーソルを動かす手が知らない間にカーブを描いてしまう。

 ギブスンのアフォーダンスや、ゲームなどに影響を受けた研究だ。視覚的に情報を変化させることで、できることを教えるためのインタフェースの研究の一環だという。

 だがこの手のものは、たとえば本コラム連載の中でも立体映像の研究に触れたように、既に多くの先行研究がある。それこそゲーム開発分野での視覚から受ける影響に関する研究もあるし、たとえばアニメーションにおいて、重たいモノが落ちたり巨大ロボットが歩行するシーンで画面を揺らすのはお馴染みの手法だ。

 また、自分の運動に合わせて視覚的な情報を追加する場合は「見せ方」が非常に大きく効いてくる。その分、評価手法の開発含め、もうちょっとレベルを上げる必要があると感じた。これもFlashで実装されている。

●あの日あの時あの場所で ~フォトリウム~

フォトリウム

 神原啓介氏の「フォトリウム(Photorium)」は写真を次々と湧き出させるビューア。もともと渡邊恵太氏のメモリウムを元に、産総研の増井俊之氏が「パクリウム」という写真系のビューアを作り、それに触発されて作ったものだという。これは実際にダウンロードできるので、興味がある人は使ってみるのが早いだろう。ぼーっと写真を見ていたい人、自分自身の記憶を自分が撮影した写真で掘り返したい人向けだ。いっぱい写真を撮っている人であれば、「あの日あの時あの場所で」という感じで、色々な記憶を喚起させることができる。

 もちろん、自分が撮った写真じゃなくても、たとえば天体写真や綺麗な風景写真などを次々と表示させたり、あるいは他人に見せられない画像を提示させていても良いわけだが。どちらにせよ、環境ソフト型のアプリケーションだ。既にハマっている人もいるようだが、筆者個人は「記録」と「記憶」は根本的に違うものだと考えているし、記録をどこまで突き詰めても記憶にはならないと思っている。仮に生まれてから死ぬまで全てを録画できるようになっても、人間の記憶は「記録」とは別物だ。記録を絶えず見直す行為は、むしろ「記録」によって「記憶」を上書きして新しいものに変えているのだと考えるべきだろう。

 また、写真をHDに死蔵しても意味はない、と言う人もいるが、そもそも「写真を撮る」という行為そのものにも意味がある以上、それは根本的に間違っている。

 昔の写真はセピアに色褪せていくが、デジタル写真だと色褪せていくことがない。それにはもちろん良い面も多いが、残念な点もある。見ただけで時間の経過が感じられるか感じられないか。この点は大きい。その辺りの「モノとしての意味性」をどれだけデジタルに持たせていくか、あるいは持たせないかが、今後、住環境に浸透していくデジタルテクノロジーでは問題になってくると筆者個人は考えている。

●ウェブ上の音響風景 Melting Sound

 神原氏は他にも、なめらかなオーディオブラウジング「Melting Sound」なるものを開発している。1つ1つのアイコンが音楽ファイルで、カーソルをアイコンに近づけると、それぞれの音が鳴る。カーソルをアイコンから離すと音がフェードアウトすると同時に、別のアイコンの音がフェードインして聞こえてくる。まるで色々な音楽が鳴っているショップの中を歩いているような感覚だ。メニュー、プレイ、停止といった操作ボタンの類は全くない。

Melting Sound。カーソルを近づけたアイコンが拡大され、音楽が鳴る。アイコンにカーソルを近づけると徐々に音量が大きくなる。アイコンとアイコンの間にカーソルを置くと、近にある複数のアイコンの曲が演奏される アイコン同士を近づければ即席のプレイリストにも 曲をリスト表示したところ。演奏中のファイルに近いID3タグの属性を持つファイルを自動的に集めて表示してくれる

 それぞれのアイコンは移動させることができる。似たような音楽を寄せておくと、一曲が終わるとそのまま近くにある似た曲が連続再生される。プレイリストを作る必要はない。

 このように手動で何となく分類することもできるが、保存している曲数が増えると大変だ。そのため別形式の表示方法もある。タイトルやコメント、アーティスト名などから自動的に繋がりを見つけてくれる。この機能を使えば、ユーザーがいちいち似た曲を寄せる必要はない。曲を探す上で、明示的にキーワードを打ち込む必要がない、という点も大きなポイントだ。ウェブをブラウズしていくような感じで、目的の曲を探すことができる。データとデータの「繋がり」を非常に重視したソフトウェアだ。

 デモを見る限り非常に完成度が高く、見た目さえブラッシュアップされれば、例えばAppleのiTunesの一機能として搭載されていても不思議ではないような感じがした。

 Window Snoopyは重なりあったウインドウをずらして「覗き込む」インタフェースの提案。だんだん操作する要素が増えてきて限界がきつつあるGUIの拡張法の1つだ。3次元とまではいかないが、2.5次元くらいにまで空間を拡張した感じである。

Window Snoopyのデモ。画面中程にあるオレンジ色の点を中心に、重なったウインドウを上下左右にずらして覗き見できる。写真左の状態からウインドウをずらした状態が写真右。手前のウインドウほど大きく、奧に行くほど小さく移動するので、3次元的な動きに見える

●井戸端会議システム

井戸端会議システム。画面をタップするとカードは大きくなって情報を提示する。実際にはカメラも付けられており、音声メモを残すこともできる

 大橋正興氏は井戸端会議システム「Lost & Found」を作っている。ユーザーをRFIDで認識・識別し、各ユーザーが事前に登録した情報や興味を持っている情報をカード状に提示することで、コミュニケーションを促進する。ボードの前に立つとお互いが抱えている問題意識などが自動的にカード形式で明示される。研究室などでの交流促進用途を考えているという。

 日本人の場合、画像を録画したり音声メモを吹き込むことに抵抗がある人が多いので、そのあたりにもう一工夫が必要だろう。またできれば、見つけたアイデアのテキストやイメージのうち、「これ使えるな」と思ったモノがあったら自分のPCにダウンロードできるとか、あるいはグループウェアのスケジュールデータを引っ張ってくることで、ボードの前で会った人の空いている時間帯をパッと見つけるといったような実用性も欲しい。

 なお、実際に安村研究室で利用しており、それぞれのメンバーの仕事を何となく把握するために使われているようだという。

●人間中心のインターフェイスを

左から児玉哲彦氏、渡邊恵太氏、神原啓介氏

 安村研究室ではこれらのほか、ネットワークセキュリティや、印象派絵画の研究、口腔内デバイス、RFIDの応用など、幅広い分野で研究活動をしている。

 個人的には、蓄積・記録されたデータを如何に再提示して、活用・共有するか、ということが、それぞれの研究の共通点であり、全体のテーマとしているように見受けられた。

 児玉哲彦氏は、「『メディアはメッセージだ』というマクルーハンの言葉がありますが、僕らはむしろ、『メッセージがメディアだ』と捉える世代」だという。例えばテレビ番組やマンガ、雑誌記事など、メディアについて色々お互い話をすることそのものが楽しいのだ、という意味だ。あるメディア経験をコミュニケーションを通じて共有経験化することそのものに意味があるというわけだ。

 安村研では「極端な話、学生1人1テーマ」という感じで研究を行なっているという。安村教授自身による研究室全体のテーマの捉え方を聞いてみた。

 「広く言えばヒューマン・インタフェースですね。インタフェース・デザインを通じて、コンピュータの新しい可能性を探るということです。大学院では『マルチモーダル』と呼んでいますが、それはなぜかというと『マルチメディア』よりも人間サイドで、五感をフルに使うとか、感性等を重視したいと考えているからです。私としては、インタフェースの可能性を探りたい、というところですね」

 インタフェースの可能性とはどういう意味だろうか。

 「一番分かりやすい言い方をすると『ポストGUI』です。ウインドウ、マウスやキーボード、視覚中心といったものを破ったインタフェースは何かということです。もっと音声やジェスチャも使いたいですし、コンピュータを中心にするんじゃなくて、人間を中心としたい。

 あるいはTablet PCや大画面で見たときのインタフェースは何かということを考えたいと思ってます。これからはコンピュータの前に座って使う、というわけじゃない。逆に、コンピュータを使いたいときに、コンピューターのパワーだけがあると。普通に仕事してるんだけど、そのそばにさりげなくコンピュータがいて、そっちを見れば、ちょっとした情報やコンピュータのパワーが使えるとか。そういうことができるんじゃないかと思います」

 たとえば今のPCで使っているスケジューラーソフトが、単機能のデバイスになって、壁からぶら下がっているようなイメージだ。

 キーワードは、ヒューマンセンター(人間中心)、マルチモーダル、インタフェースデザインだ、という。

 「デザインを変えることによって、人間のミスや負担が減るとかね。そういうことです。対称的な言葉としてヒューマンエラーという言葉があります。人間が悪いんだと。我々はそうじゃなくて、その中にある器具のデザインを変えればミスが減らせるはずだ、という立場なんです。同じように、今のコンピュータが使いづらいというのは、今のコンピュータやソフトウェアのデザインが不十分だからです。そこを改良したい。

 そのために、できるだけ動くモノ、実装したプロトタイプを作って、自分たちのアイデアを示すことが大事です。机上の空論にならないように」

 今回、デモンストレーションを行なってくれたのも修士課程の学生の方々である。とにかく動かして使ってみないと、インタフェース・デザインなんてできない--。そんな考え方が研究室全体に満ちているように感じた。


□慶應義塾大学 安村ヒューマンインタフェース研究室
http://www.hi.sfc.keio.ac.jp/
□安村通晃 教授のホームページ
http://web.sfc.keio.ac.jp/~yasumura/index.shtml
□塚田浩二氏のホームページ(アクティブ・ベルト、ユビ・フィンガー)
http://mobiquitous.com/~tsuka/
□児玉哲彦氏のホームページ(データジョッキー)
http://web.sfc.keio.ac.jp/~codama/wiki/wiki.cgi?*play
□渡邊恵太氏のホームページ(メモリウム、ビジュアル・ハプティクス)
http://web.sfc.keio.ac.jp/~t00232kw/
□メモリウムのホームページ
http://www.persistent.org/memorium.html
□メモリウムのダウンロードページ
http://www.persistent.org/hiki/hiki.cgi?Memorium
□神原啓介氏のホームページ(フォトリウム、メルティング・サウンド)
http://sappari.org/
□フォトリウムのダウンロードページ
http://sappari.org/hiki/hiki.cgi?Photorium
□大橋正興氏のホームページ(Lost & Found)
http://www.chi.mag.keio.ac.jp/~masaoki/

バックナンバー

(2003年12月25日)

[Reported by 森山和道]

【PC Watchホームページ】


PC Watch編集部 pc-watch-info@impress.co.jp 個別にご回答することはいたしかねます。

Copyright (c) 2003 Impress Corporation All rights reserved.