森山和道の「ヒトと機械の境界面」

知力増強から身体増強に踏み込む情報科学「Augmented Human」とは



暦本純一氏

 国立情報学研究所(NII)は、6月7日、8日の日程でオープンハウスを行なった。NIIは情報学分野での「未来価値創成」を掲げた学術総合研究所で、ネットワーク、ソフトウェア、コンテンツなどの分野での研究・応用展開を研究するほか、学術情報基盤を構築・運営している。

 その中で、株式会社ソニーコンピュータサイエンス研究所 副所長で、東京大学大学院情報学環教授の暦本純一氏が基調講演を行なった。暦本氏はAR(オーグメンティッド・リアリティ、拡張現実)、実世界指向インターフェイスの研究者として知られている。

 演題は「オーグメンティッド・リアリティからオーグメンティッド・ヒューマンへ:人間の進化と情報技術」。これまでのAR研究の歴史を踏まえて、今後の情報科学のトレンドについて予言し、その枠組みの中で暦本研の研究内容を紹介するものだった。ここでは、今年3月に東大で行なわれた「暦本研オープンハウス」のときの模様と合わせて、この講演をレポートする。これからの情報科学の1つのトレンドを示すものとして、ご覧頂ければと思う。


●Augmented Human 人間の増強と溶けて消えていくインターフェイス

 暦本氏は、「これまでのコンピューティングは主に『知力の増強』を主眼としていたが、これからは『身体の増強』の領域に踏み込むのではないか」と述べた。インターフェイス研究もこれからは変わるという。古典的なインターフェイス研究は、人間がいて、それとは別に機械があって、両者の接点である界面(インターフェイス)を研究しようという捉え方だった。しかし実際には人間も社会も機械も変わるものであり、少なくとも人間を中心にして考えるべきであり、人間と環境は本来不可分で、環境が変わると人間も変わるという。

古典的なユーザー・インターフェイスの考え方人間と環境は本来不可分で、環境が変わると人間も変わるもの
●視覚の増強

 さて、拡張現実(AR)は最近になって具体的なアプリケーションも出るようになったので新しい考え方だと思っている人もいるかもしれないが、実際には研究の歴史は古い。1965年にはCGやVRの領域で知られるアイバン・サザーランド(Ivan E. Sutherland)が「Ultimate Display」という現実にCGを重畳するゴーグルを開発している。当時はまだワークステーションとCRTディスプレイが使われていたという。

 暦本氏自身がARの研究を手がけるようになったのは1994年、「NaviCam」から。現実空間をカメラを通してみると、タグをカメラが認識して情報をオーバーレイするというものだ。現実に重畳されたCG画像を共有することで、複数の人のコラボレーションツールとして使えることも示した。ちなみに当時はまだ携帯電話にカメラもまだ搭載されていなかった。

 今日ではARは現実の風景をマーカーレスで認識して、情報を重畳することもできるようになっている。ナビなどへの応用展開も現実味を帯びて来ている。だが暦本氏は、実写に綺麗にCGが重畳できるようになったせいで、逆にARの考え方のうち、現実に情報を添付するというものばかりに着目されすぎていると指摘する。それだけではなく、人間の知覚能力を増強するというのがARの本来の目的だという。

 分かりやすい例が視覚ベースの増強で、マンガ「ドラゴンボール」に登場した「スカウター」やGoogleによる「Project Glass」である。キーボードなどを叩くことなく見て注目しただけで、自然に視野にアノテーションが付与されるようになり、データベース検索が実行されるようになれば、善し悪しは別として、やがてどこからが自分の知識でどこからがデータベースの知識か分からなくなるという。

ARの先駆け「Ultimate Display」暦本氏によるNaciCamGoogleによる「Project Glass」

 バネーバー・ブッシュ(Vannevar Bush)は1945年に「As We May Think(われわれが思考するごとく)」という論文を発表し、人の思考を模倣し、記憶力を拡張する機械「Memex(記憶拡張機)」を仮想し、今日のハイパーテキストの概念を提唱した。当時からカメラによって人生のすべてを記録するという概念は存在していたという。今日のライフログである。

 今ではストレージベースで考えると、人生をまるごと映像記録に残すことも不可能ではない。だが問題は、どうやって有用な情報を取り出すかである。ブッシュは当時からライフログ情報のインデクシングには人間の視点、注目点が有用であると考えていたという。人間の目は、入力だけではなく、何に注目していたかという情報をアウトプットするものでもある。目の動きは、感情も表現する。

 人間の強化の1つのアプローチは視覚のエンハンスメント(増強)だと考え、暦本研究室でもゴーグル型のAR機器として「AidedEyes」を研究開発している。小型の眼球運動計測装置を使って日常生活での瞬目頻度を記録して、ライフログデータからの情報抽出に利用しようというものだ。会った人や文字、興味対象などを的確に抽出して提示することは人の記憶拡張に繋がるという。視覚などの知覚と記憶とコンピュータの結合、またネットワークでの体験の共有は、人間を媒介にして情報世界と実世界が繋がっているとも言えるという。

ハイパーテキストを提唱したブッシュAidedEyes

●第3者視点で見る自分
視点の拡張

 視覚といっても、主観映像だけではない。FPSゲームなどではよく、主観映像と、プレイしているキャラクターの背中が見える第3者映像とを切り替えることができる。人間でも、トップアスリートクラスになると、自分自身の身体の動きを客観化することができるらしいが、暦本氏は、自分と、自分の外の視点との切り替えを行なうことで、工学的に視点を拡張することができるのではないかと語る。

 そのようなアプローチで研究されているのが、自律型のヘリコプターに搭載したカメラ、空飛ぶロボットカメラを使って、自分たち自身を見る「Flying Eyes」だ。映画ではよくクレーンやワイヤーを使ったカメラが自由自在に主人公を追う映像がある。そのような空中自由視点をロボットヘリのカメラで簡単に実現しようというものだ。

 自由飛翔型なので、人間を追うように設定することで、人を追いかけるだけではなく、人間を飛び越えてまわりこむような動きも可能だ。映像をその場で飛ばせば、ジョギングのフォームを後ろから撮影しながらリアルタイムでその様子を見るといったこともできるし、人が入り込めない場所などに入る、テレイグジスタンスのためのデバイスへの応用も可能だ。

 確かにコンテンツ撮影技術としても面白い。暦本氏は「将来の運動会ではみんながロボットヘリを飛ばして子供を撮影するのではないか」と語って会場の笑いを誘った。


自律ヘリに搭載したロボットカメラを使った「Flying Eyes」飛翔体に「ジャックイン」して憑依するようなことも可能

●猫になったり笑顔になったり

 違うものへの視点というコンテキストで、暦本氏はペットのためのウェアラブルデバイス「Cat@Log」を紹介した。カメラやGPS,加速度センサー、無線モジュールなどからなる小型デバイスで、猫の行動を認識、ネットワーク上にアップしていく。たとえばTwitterに猫の行動を上げていくといったこともできる。同時にこれは、他の生物の視点に入るということも可能にするという。

 また、「幸せになる技術を考えている」として「HappinessCounter」を紹介した。これは、ウィリアム・ジェイムズによる「人は幸福であるが故に笑うのではなく、笑うが故に幸せである」という言説をもとにしたデバイスで、笑顔になることで少しでも幸せ、健康になろうというものだ。たとえば独居生活だと生活も単調になってしまう。ここに表情認識技術を使う。化粧台やミラーに笑顔センサーを入れたり、笑顔になって笑わないと開かない冷蔵庫といったものに活用する。

 冗談のようだが、10日間くらい高齢者宅で実際に試してもらったところ、生活の中でのゲームやチャレンジとして捉えてもらうと、悪くない効果があるようだという。また、ミーティングスペースに入るときにも笑顔にならないと部屋に入れないようにすると、ミーティングが活性化されるのではないかとやはり冗談まじりに語った。だがこれも物理空間の情報強化の1つ、かもしれない。

猫の視点・生活を再体験できる「Cat@Log」Happiness Counter会議も笑顔で活性化される?

●プログラマブルな建築
建築もソフトウェア的なものに

 フィジカル空間を情報で強化するのには、他の可能性もある。従来の建築は固定的だった。だがこれからは固定的なハードウェアからソフトウェア的なものへと変化し、「未来の建築はリコンフィギュアブル(再構成可能)建築になる」という。実際、建築分野でも「スケルトンからインフィルへ」とよく言われているが、暦本氏が提唱するのはいわばそのインフィル部分に、センサーとアクチュエーターと情報技術を組み合わせて適用しようというものだ。

 暦本研ではまずはオプティカルなものからということで、「Squama」という透明度を変化させられる窓や仕切りのようなものを開発している。普段は白いが電圧を加えることで透明になる高分子分散型液晶(PDLC)を使ったパネルである。これで透明度を変えることで、開放性とプライバシーを両立させることができるという。例えば人間の顔を認識させトラックすることで、仕切りや窓の向こうの人とアイコンタクトがある場所だけ不透明にすることができる。このように「コンピュータが介在することで矛盾した欲求を両立させられるのではないか」というアイデアだ。

 また、太陽光と陰の問題についても応用出来る。全面ガラス張りだと暑くなりすぎてしまったりするが、陰をプログラマブルにできるなら話は別だ。たとえばテーブル上の果物の部分だけ直射日光があたらないようにコントロールできる。また人が座る部分だけ陰にするといったことも可能だ。

 このように、マルチタッチのような既存のサーフェース・コンピューティングは一見目新しく見えても「古き良きユーザーインターフェイス」の範疇を出ていないが、コンピュータをどう巧みに使うかよりも、実空間をどう快適に使うかということから考えたがほうが、コンピューティングの面白い可能性がある。暦本氏は「コンピュータを使うためにインターフェイスがあるわけではない。幸せ、快適に暮らすために情報技術を使おう」と呼びかけた。


部分的に透明にしたり不透明にしたりできる「Squama」プライバシーと開放感を両立させる陰もプログラムできるようになる?

●人の手足を直接動かす

 また、人間の動きそのものをコンピューティングに使おうという考え方もある。今はMicrosoft「Kinect」やASUS「Xtion PRO LIVE」のようなモーションキャプチャデバイスがあるため、ジェスチャーをインターフェイスとして使うことが簡単になった。たとえば手術をする医師のインターフェイスとしては、空中のフリーハンドジェスチャーをするだけで機械が扱えるため有用なのではないかと考えているという。

 一方、コンピュータが人間の手や足を直接コントロールできると、アシスタントができる。暦本研では「PossessedHand」という研究で、腕に直接電気刺激を与えて手指の動きをコントロールしようとしている。従来よりも細かい粒度、具体的には指一本くらいの粒度で、指そのものをコントロールできるという。実験では16関節をコントロールすることに成功している。これによって、ナビゲーションシステム、バーチャル空間の物体認識のためのフィードバックのほか、音楽演奏補助システムなどへの応用が可能だという。従来はメトロノームによってテンポを教えていたが、それを指に直接教えることができるのだ。また、脊髄損傷のリハビリのアシストにも使える可能性があるという。

電気刺激で手を直接制御する「PossessedHand」手の形を直接制御できる楽器演奏への応用展開も

【動画】「PossessedHand」の紹介ビデオ

●より身体に密接に関わる情報技術

 最後にまとめとして暦本氏は、「インターフェイス」として人と機械を分けるのはよくないとして、「人馬一体」という言葉を上げた。ウマをうまく乗りこなしている間は人はどこからどこまでが自分の身体なのかという感覚は消失している。それと同じように究極のテクノロジーは人間と別個に存在するのではなく人と一体化して人を拡張するものであるという。すなわちHuman Computer Integrationだ。人と技術を界面で切り分けるのではなく、一体化する、インターフェイスが消えることが理想形だとした。

 そして「究極のテクノロジーは人間自身を進化・強化・拡張させる。あるいは再デザインさせる」とし、これからはフィジカルな拡張へと情報技術のフォーカスが変わってくるだろうと述べた。最後に民俗学者の梅棹忠夫氏による「情報産業論」(1963)を引いて、「これまでの人間の文明は農業、工業、そして情報の時代へと移り変わって来たが、これからの情報技術は、これまでの300年間、400年間の産業技術の流れを逆に遡っていくのではないか」と述べて、暦本氏は講演を締めくくった。我々はいま、よりフィジカルに、より身体に密接に関わる部分へと情報技術が浸透していく時代を迎えようとしているのかもしれない。

人馬一体のようなコンピューティングへ人の概念を再構成させる「Augmented Human」これからの情報技術は産業技術の流れを遡る