ニュース

日本科学未来館・常設展「まず!ふれてみよ」を新規公開

〜目指すは「さわれる情報環境」の実現

「まず!ふれてみよ - テニトルセカイ ツナグミライ -」

 東京・お台場にある日本科学未来館は、常設展「メディアラボ」第14期 新規展示として「まず!ふれてみよ - テニトルセカイ ツナグミライ -」を2014年10月22日(水)〜2015年5月11日(月) まで公開する。

 独立行政法人 科学技術振興機構(JST)の戦略的創造研究推進事業(CREST)の1つ「さわれる人間調和型情報環境の構築と活用」プロジェクト(研究代表者:舘ワ(たち・すすむ)氏)の研究成果の一部を展示するもので、見るだけではなく「さわれる情報環境」の実現に向けて行なわれている研究成果を体験できる。

 現在のコンピュータやTVは視覚・聴覚に限定されている。「さわれる情報環境」では実空間コミュニケーション、ヒューマンインターフェイス、メディア処理技術を融合させて、素材感や重量感、ぬくもりや冷たさなど触感を体験できるようにすることを目指している。そのための空間の触覚情報の取得と理解、伝達と人への働きかけの実現が目標で、遠隔コミュニケーションや遠隔体験、疑似体験をアプリケーションとしている。今回の展示はそれらの一部を体験できるように展示したものだ。

 10月21日に行なわれたプレス公開の模様をレポートする。

テレイグジスタンスシステム「TELESAR」

まず目を引くのが2台のロボットだ。舘研究室が長年研究を行なっているテレイグジスタンスシステム「TELESAR」である。簡単に言えばあたかもそこにいるような感覚で遠隔操縦できるロボットだ。操作者はゴーグルやグローブを着けて、カメラやセンサー付きのロボットを操る。ロボットが得た情報は操作者にフィードバックされるので、その場にいるような感覚を得ることができるというわけだ。TELESARは「TELE-existence Surrogate Anthropomorphic Robot」の略。

 今回はTELESARの初代機と、愛・地球博(愛知万博)の「プロトタイプロボット展」に出展された「TELESAR 2」の実物、そして最新の能動的触覚伝送プラットフォーム「TELESAR V」のビデオが展示されている。「TELESAR V」も後に実物が展示されるとのこと。今回は未来館内にある研究室で実際に遠隔操縦する様子を見学することができた。操作者は指先に触覚と力のフィードバックを感じながらロボットを操作できるので、コップのものを移し替えるといった通常は難しい作業でも苦もなくこなせる。

初代のTELESAR
TELESAR 2
TELESAR V
TELESAR Vのデモの様子
TELESAR Vのデモ
TELESAR Vは触覚を伝えることができる

 なお初代機の動画は産業技術総合研究所(産総研)のWebサイト(動画)で、愛知万博当時の様子は舘研究室の動画(YouTube動画)のほか、本誌過去記事でご覧頂きたい。

 「つかんでみよ」は、バーチャルな物体をつまむことができる「グラビティ・グラバー」の展示だ。モーターを使ってベルトを引っ張ることができる装置を人差し指と親指にはめ、物体を掴んだときの皮膚表面が引っ張られる力を再現することで、空箱をつまんだ指先に対して、あたかも何かものが入ったかのような感覚を与えることができる。身体運動と触覚の組み合わせを活用して感覚を生み出すことを狙ったデバイスだ。着けている本人にしか分からないのだが、カラの器の中に何かが入っている感触が再生される。「グラビティ・グラバー」と同じものを「TELESAR V」操作者側も装着している。

指に装着するグラビティ・グラバー
モーターでベルトを引っ張る
カラの器に何かが入っている感触が再生される
グラビティ・グラバーのデモ

 「うってみよ」と題されているのは「触感放送」の研究。触っている感覚を伝えてくれる装置だ。ラケットを持つと、画面の中の動きに応じて手に振動が伝わってくる。ラケットには赤外線反射マーカーが付けられており、6台のカメラで動きを捉える。右利きの人も左利きの人の動きも捉えられるように広い範囲を撮影している。また、ゆっくりとシャトルを打つような動作をすると、振動も引き延ばされて伝わってくる。対戦ゲームなどに使われると面白そうだ。

さわりごこちを伝える「触感放送」
ラケットはマーカー付き
6台のカメラでラケットの動きを捉える

 「さがしてみよ!」は「触感検索」。まず触感をマイクとスピーカー付きのペンで記録し、検索ボタンを押すと、その触り心地に似たモノが画面上に出てくる。将来は自分の好きな触り心地の物体を探すために使えるのではないかという。

触感検索

 展示のいくつかは触感をマイクとスピーカーを使って記録・再生・伝達できる「テクタイル・ツールキット」を使っている。例えば、紙コップにビー玉などを入れてグルグルと回したときの感覚を簡単に伝えることができるキットだ。詳細は、テクタイルのWebサイトか、本誌過去記事「YCAM「TECHTILE」集中ワークショップレポート」を参照してほしい。

紙コップに入れたビー玉の触感がカラのコップに伝わる
子供たちと一緒に触感を伝えるトイを作るワークショップも行なっている
触覚の虫眼鏡を意識したという作例

 「かざしてみよ」は空中に3D映像が浮かんで見える「ハプトミラージュ」。深度センサーを使っており、空中に浮いた映像に対して回転など操作を行なうことができる。面白いのは、下にターンテーブルがあり、それを回すことで3D映像を回転させられること。虚像に対して空中で手をひらひらさせてインタラクションするというのは最近非常に多いが、実際に物理的なものを動かして働きかけるのは案外面白い体験だった。

ハプトミラージュ。3D映像を操作できる
バーチャルキャラクターを踊らせることもできる
研究代表者の東京大学名誉教授、慶應義塾大学大学院メディアデザイン研究科 特別招聘教授/国際VR 研究センター長 舘 ワ (たち・すすむ)氏。
慶應義塾大学大学院メディアデザイン研究科 准教授 南澤孝太氏
展示会場の様子
壁には舘教授のこれまでの研究をツリー状にまとめた図がディスプレイされている。下が古く、上が新しい研究
壁には手を入れて触ってみないと何が入っているか分からない穴も開けられている