森山和道の「ヒトと機械の境界面」

入浴剤で風呂をディスプレイに、Kinectで手術支援、学習する人工脳

~デジタルコンテンツEXPO 2013

ソリッドレイ研究所「空中ブランコ」
10月24日~26日 開催

 コンテンツ技術をテーマとした「デジタルコンテンツEXPO 2013」が10月24日(木)~26日(土)、日本科学未来館で開催された。公式ホームページの表現を借りると、「DC EXPO」では「製品化以前の研究開発段階にあるシーズ技術やプロトタイプシステムが主役」。研究者やクリエイターたちのいわゆるシーズをニーズ側に伝えることを主目的としたイベントである。

 ソリッドレイ研究所によるバーチャルなどはTVなどマスメディアでも報道されたのでご覧になった方も多いと思う。これは同社による「デュオサイト」という3Dモデル体感システムのデモンストレーションで、プロジェクタとPC、そしてヘッドトラッキングシステムを使うことで、リアルな3D体験ができるというもの。多くの人が感覚を楽しんでいた。

入浴剤で風呂をディスプレイに

「DC EXPO2013」会場の模様

 本記事では、経済産業省主催の「Innovative Technologies 2013」から、いくつかの技術を紹介しておきたい。「Innovative Technologies 2013」とは、コンテンツ産業の発展に大きく貢献することが期待される応用・新市場創出が期待される技術を公募・表彰する事業だ。会場では全部で20の技術が出展されていた。なお、あちこちの展示で「深度カメラ」として、MicrosoftのKinectが用いられていた。

 まず人目を引いていたのが電気通信大学 情報システム学小池研究室による「アクアトップディスプレイ」である。白濁する入浴剤を入れたお風呂の水面をスクリーンとして、プロジェクタで映像を提示する。それに対して深度カメラを使ってタッチパネルのようにインタラクションできるというものだ。例えば水面下から指を突き上げて選択、映像を飛ばすといった遊びができるほか、映像がプロジェクションされた水をそのまま手ですくうといったこともできる。ちなみに、普通にテキストも読めるし、Webブラウズもできる。

 開発者である同研究室の的場やすし氏は、この技術を活用することで、映像の中に入り込んだような体験もできるようになるのではないかと語る。例えば、もし大きなプールのようなところで適用できれば、大人数でのアクションゲームなどが行なえる。体験者たちはみんな水のなかに入ることになるが、アクションによる振動や痛みのような刺激を与える信号他を伝える機器を身につけることで、より実感・体感を伴ったアクションゲームができるようになるのではないかという。

 水面だけではなく壁面や天井にもディスプレイして作り込める狭い室内で使っても面白いだろうが、屋外で大規模に行なえると、また全く違う可能性が出てくる。水面でゆらめく映像を見ていると、さまざまな活用法が浮かんでくる。頭を刺激される技術展示だった。

水面でインタラクションできる「アクアトップディスプレイ」

光ファイバーの「布」

 布型インターフェイス「LightCloth」は、JST ERATO五十嵐デザインインターフェイスプロジェクト、明治大学総合数理学部先端メディアサイエンス学科橋本研究室、慶応義塾大学大学院メディアデザイン研究科リアリティメディアプロジェクト、東大五十嵐研究室による出展で、光ファイバー製のすだれのような「布」の表面をペンで触ると、発光色を自在に変えることができるというもの。

 この「布」の末端にはLEDと光センサーが仕掛けられている。赤外線データ信号を出力するペンからの信号を読み取って、指定の色を発光させるしくみだ。演劇やファッションショーなどで服やソファが光ったり、色が変わったりといったアプリケーションが考えられるという。使い方次第で化けるかもしれない。

布型インターフェイス「LightCloth」

電磁石で勝手に引っ張られるペン、実空間に浮かぶARキャラ

「dePENd」

 慶応義塾大学 筧研究室は「dePENd」を出展。机の中に仕掛けられた電磁石をXYステージで動かし、ペン先を引きつけて、力覚ガイドありの手書き体験を得られるデバイスだ。ボールペンと紙を使って、これまでにない感覚が得られるところが面白い。この技術を含む筧研究室の取り組みについては本連載のバックナンバー「フィジカルを引き立てるデジタル慶應SFC筧研究室 成果展「Habilis」で紹介しているので合わせてご覧頂きたい。

 東京大学苗村研究室は「でるキャラ」を出展。複合現実技術を用いてバーチャルキャラがあたかも眼前にいるように見せる。ディスプレイを前後に動かすことで350×300×250mmくらいの空間に空中像を結像できる空中像ディスプレイを用いて、深度センサで計測した実空間のオブジェクトや人間の手などに合わせてキャラクターを動かす仕組みだ。裸眼でごく自然に違和感なくバーチャルキャラクターを見ることができるのは確かに楽しい。

【動画】「でるキャラ」。なお裸眼ではビデオよりも自然に感じた

薄型・軽量で折り曲げられるフィルムスピーカー

 富士フィルム株式会社は「次世代フレキシブルデバイス電気音響変換フィルムBEAT」を出展していた。「BEAT」は薄型・軽量で折り曲げることもできる平面スピーカである。さわってみると確かに振動していることが分かる。この「BEAT」は、圧電セラミックスの粒を閉じ込めた粘弾性ポリマーを圧電コンポジット層として形成したもので、それを電極層と保護層で挟んだ構造になっている。外部からスピーカ全体を曲げるようなゆっくりした変形にはやわらかくふるまう一方で、オーディオの帯域では圧電セラミックスの振動を音として十分に伝達できる硬さを持っている。

 薄型軽量のスピーカとしてはもちろん、折り紙をスピーカーにしたり、声帯マイクや楽器用のセンサーとしての応用も想定されているという。

「次世代フレキシブルデバイス電気音響変換フィルムBEAT」
巻き取り型スピーカの使用イメージ

2D+3D互換のディスプレイ

 神奈川工科大学白井研究室は、「2×3D(ツーバイスリーディー)」と名付けた2D+3D互換のディスプレイシステムを出展していた。3D映画は、大好きな人もいるが、不得意な人もいる。長時間の3D視聴は目が疲れると嫌がる人も少なくないし、なかには酔ってしまう人もいる。そういう人たちが一緒に映像を視聴することは既存の仕組みでは無理だが、このシステムではそれを可能にする。

 通常の3D映画は右目用と左目用、それぞれの映像を投影する2つのプロジェクタからの映像を、偏光フィルタ付きの眼鏡をかけて見る。一方「2×3D」システムでは、偏光フィルタを通して見るのは右目用のみで、裸眼では左目用の映像を視聴することで、2Dと3Dの映像視聴を共存させている。下記の動画は英語だが、仕組みが解説されている。実際の映画館等の商業施設で使うのは興行面を考えると難しいかもしれないが、面白い技術だ。

【動画】偏光フィルタをかざすことで、裸眼では見えない画像を提示することも可能

非接触手術支援インターフェイス「Opect」

 東京女子医科大学からは非接触直感操作型インターフェイス「Opect」が出展。医師が外科手術時に必要な画像を閲覧するときに用いる手術支援インターフェイス技術で、Kinectを用いて、ジェスチャーを使ってMRI画像などを閲覧することができる。これによって滅菌処理された手袋で他のものに触ることなく、かつ、「見たい」と思ったときに自分のアクションで情報を引き出せる点が評価されているという。

 既に株式会社ニチイ学館から商品化されており、498,000円で販売されている。またOpectは「Microsoft Innovation Award 2013」で最優秀賞を獲得している。このようなかたちでKinect、あるいは似たような深度センサーを活用する例は今後どんどん増えてくるだろう。

Kinectを用いた外科手術用の非接触直感操作型インターフェイス「Opect」

人工神経接続、人工脳

 自然科学研究機構 生理学研究所発達生理学研究系・認知行動発達機構研究部門の西村幸男准教授らは「人工神経接続」に関する研究をビデオとパネルで出展していた。脊髄損傷後の歩行再建を目標としたBMI(ブレイン・マシーン・インターフェイス)技術で、損傷した部分をバイパスして脚部を動かす神経を刺激して、運動を再建することを目指している。また、同時に脳に信号を戻してやることで、感覚を再現することも目指している。刺激信号をどの領野に戻しても、脳は学習するのではないかと考えているという。なお西村氏らはこれまでに、リハビリに対する「やる気」と運動機能の回復との間の関連を明らかにすることに成功している。自身は、あくまで神経生理の研究者であり、BMIの研究者ではないと語っていた。

 なぜこの研究がデジタルコンテンツなのか。審査員の講評によれば「BCI(ブレイン・コンピュータ・インターフェイス)はいわば身体をデジタルメディア化する技術」であり、「デジタルコンテンツ領域においても重要な基盤技術である」、ということらしい。

麻痺した四肢の運動と感覚の再建が目標
研究に用いられている基板
刺激で足の周期的な運動が再建できる

 東京工業大学 長谷川修研究室は「人工脳SOINN」のデモを行なっていた。「SOINN」は「Self-Organizing Incremental Neural Network(自己増殖型ニューラルネットワーク)」の略称。ノイズに強く、事前にモデルを設定する必要がないオンライン機械学習手法で、例えば、インターネット上の画像を用いて「車」とはどういう形状のものなのかということを学習させることができる。抽出した情報を使って、連想や推論のようなより高次知能処理も行うことができるという。

 ブースではPC上のデモと合わせて、上半身型ロボット(川田工業の研究用プラットフォーム「HIRO」)を用いて、「湯のみ」とは何かということを知って、お茶に見立てたビーズをコップから移して入れて相手に差し出す、というデモを行っていた。なお「人工脳SOINN」は合同会社長谷川研究所から事業化されている。ビッグデータの解析への応用が期待されているという。

ネット画像から「車」について瞬時に学習し、任意の写真を見て「車」を認識できる
デモに用いられていた上半身型ロボット

(森山 和道)