ニュース

VRから感覚と情動、そして行動を引き起こす技術の将来とは

~「超臨場感コミュニケーション産学官フォーラム」創立10周年記念シンポジウム

NTT研究所「Kirari !」

 6月15日、「超臨場感コミュニケーション産学官フォーラム(URCF)」創立10周年記念シンポジウムが東京都内で行なわれた。URCFは「超高精細・立体映像」、「高臨場感音場再生」、「触覚・嗅覚を含めた五感通信」などの要素技術からなる離れた場所からでも同じ空間を共有してリアルなコミュニケーションができる技術の実現を通して産官学相互の情報交換や異分野間交流を推進し、産学官連携による研究開発・実証実験・標準化等の効率的な推進を図ることを目的として結成された団体だ。

 10周年記念シンポジウムでは、新たに会長となった東京大学大学院情報理工学系研究科 廣瀬通孝教授が「新生URCFに向けて 感覚と情動の科学技術」と題してバーチャルリアリティ(VR)技術の今や情動技術に関する基調講演を行なった。本記事ではその基調講演をレポートする。

量的変化から質的変化が起こっているVRの世界

東京大学大学院情報理工学系研究科 廣瀬通孝 教授。URCF会長

 VR研究の第一人者として知られる廣瀬教授は「今年はVRにとって微妙な年だと思っている」と話を始めた。「VR元年」と言われることも多い今年は「若い人たちの間で、ある種の高まり」がある一方、VRという言葉自体は既に1989年には使われており、25年以上に及ぶ研究の歴史がある。産学の現場でこれまでもVR研究を進めてきた人たちにはいろんな思いと意見がある、というわけだ。

 廣瀬教授は「世代が変わったと言い続けている」という。以前、VRが話題になった時代にはモバイルもインターネットもなかったからだ。廣瀬教授は6月末に著書『いずれ老いていく僕たちを100年活躍させるための先端VRガイド』(星海社新書)を出す予定だが、その20歳代の担当編集者から「先生、『バーチャル・リアリティ』っていうと古いけど『VR』っていうと新しいですね」と言われたというエピソードを紹介した。世間では、そういう感覚なのかもしれない。

すでに25年以上の歴史があるVR技術
廣瀬教授の近著『いずれ老いていく僕たちを100年活躍させるための先端VRガイド』(星海社新書)

 VRといえばおなじみのデバイス、ヘッド・マウント・ディスプレイ(HMD)も、PlayStation VR、Oculus Rift、FOVEなど、いろいろなものが出てきている。昔はHMD 1つが数百万円した。それが今や数万円で手に入る時代になり、ゲームを用途として市販もされようとしている。昔はVR体験システムを作るのは億単位でお金が必要だったが、今は数万円で作れるようになった。

 「FOVE」はHMDのなかに視線追尾装置がついており、どこを見ているかも分かる。「量的な変化だけではなく、質的変化も始まっている」と廣瀬教授は語った。また、全天周映像も今は「自撮り棒+α」くらいの装備で気軽に撮れるようになっている。これら技術のコモディティ化によって、利用対象も変わってきている。

さまざまなHMDも登場
廣瀬研の研究の1つ「思い出のぞき窓」

五感ディスプレイの新たなかたちはマルチモーダル

 続けて廣瀬教授は、情動の話題について触れた。これまでのVR研究においてもさまざまな五感ディスプレイが研究開発されてきたが、基本的には、五感それぞれに対応した個々のディスプレイを作るというアプローチだった。それでは面白いが実際には使えない。

さまざまな五感提示技術
従来の五感ディスプレイの考え方

 そこで廣瀬氏らは10年くらい前から、直接感覚を生成して被験者に提示するのではなく、擬似的に感覚を生成することを意識しはじめたという。例えば擬似触覚だ。マウスカーソルの動きを重たくすると、実際に手のほうも重くなったように感じたりする。機械的な装置なしで力覚を生成したり、視覚で触覚を誘発するといったやり方である。

 例えば味覚ディスプレイを真面目に作ろうとすると大変だが、嗅覚や視覚を刺激することで、ある程度ならば味覚を引き起こすこともできる。このような多感覚、感覚横断、感覚相互作用、いわゆるクロスモーダルな情報提示は、今後ますます重要になると考えられる。感覚の上には知覚があり、さらにその上には認知がある。また、情動からどんな行動が引き起こされるか、行動や認知的な部分も考えることがVR研究や臨場感通信の新しい方向性の1つだという。

擬似触覚の生成
五感相互作用の利用
拡張現実感で味を変化させる「Meta Cockie」
行動や情動は感覚から生まれる

人の情動を刺激するAffective Computing

 廣瀬教授は情動を刺激するAffective Computingの一例として、MITメディアラボ発のロボット「Jibo」を紹介した。2014年に発表された「Jibo」は未発売だが、既にプロモーションビデオで大量の投資を集めている。日本ではロボット単体を作ることに一生懸命になりがちだが、「Jibo」は「動きが色っぽく、人の感性をくすぐる」と評価し、情動技術が中心になってロボットに影響を与えるのではないかと語った。

MITメディアラボ Jibo

 また、旭化成株式会社による非接触脈波検出技術「Vital Bit」を使った、電通によるスマートフォンのカメラを使って脈拍が分かるスマートフォン向けアプリ「Pace Sync」を紹介。「Pace Sync」は、脈拍による顔色の変化を捉えることで脈拍を計測できるiOS/Android向けアプリだ。脈拍から緊張度合いも分かるし、逆に自分の脈拍を見ながら深呼吸するなどバイオフィードバックすることで、緊張度合いを変えることもできる。人間は1日4時間くらいスマートフォンを見ているというデータもあるそうで、スマートフォンを見ることでストレスコントロールできる可能性があるという。

 人の情動は単純ではない。「悲しいから泣く」だけではない。逆に「泣くから悲しい」といったように行動から情動が生まれることもある。泣いている人を見ると自分も悲しくなることがあるし、怒り出すと怒りがコントロールできなくなることもある。

 廣瀬教授は、そのような人の感情の仕組みを積極的に利用する例として、電子的に画像を合成した「扇情的な鏡」という例を紹介した。普通の鏡は当人の顔が映るだけだが、笑った顔を見せたり、怒った顔を見せたりすることで、自分もつられて笑ってしまったりする。

認知と行動の関係は単純ではない
扇情的な鏡

 笑った顔だと気分が上がり、悲しい顔を見ると気分が下がる。このような効果は研究として面白いだけではなく、商業的にも利用できる可能性があるという。例えば笑った顔で試着した場合と、悲しい顔で試着した場合では服への評価が変わったり、遠隔カンファレンス中に笑顔を見せたほうがブレストで良いアイデアが出るといった話題を紹介。このような、サイバネティックループによる行動変容技術や、情動の定量化や行動への反映が面白いテーマだと述べた。

笑顔かどうかで着ている服の評価が変わる
笑顔を見るとブレスト時に出るアイデアが増える

感情変容、行動変容のループを捉えてイノベーションを

 また、レシートを大量に集めれば、どこに行ったときに、どのような消費行動をするかといった購買傾向を把握することができる。例えば週末に特定の街に行くと散財する傾向があるといったことが分かるわけだ。それをユーザーにフィードバックするとどういう行動変化が起こるのか。このようなシステムにおいては予測の正確性よりも、人間が最終的にどう行動するか、その変化自体が重要になる。変化が起こる理由や仕組みは分からなくても、そのような全体のループ自体を扱うのが面白いのではないかと語った。

 続けて「Yumlog」という廣瀬研の研究を紹介。Twitterのようなソーシャルメディアで自分の食べているものをアップしたときに「おいしそう」と言われると、より「おいしい」と感じたり、それをより食べる傾向があるそうで、そのような他者の評価から食生活改善を目指すというものだ。このときに、例えば野菜サラダを食べて「ヘルシーそうだね」と言っても、あまりその強化には繋がらない。だが言い方を変換して「美味しそうだね」と伝えると、より野菜を食べたりするようになるかもしれない。伝え方を変えることで人は受け止め方が変わり、情動が変化する。人間を考えるという意味では、このような視点も重要だと述べた。

レシートログによる消費予測
ソーシャルで食習慣を変える「Yumlog」

 内閣府の調査を見ても、人はだんだん心の充足を求めるようになっているという。だがこれまでの情報学における「人間」というキーワードは「いい人」過ぎた、一発突き抜けるためにはどこか悪魔性のような部分も必要ではないかと述べた。産業分野での応用を考えると「カネの匂いがする」ような部分も重要だ。URCFは学会ではないので他社に先んじたビジネスモデルがどこで成立するのかという視点も期待される。現在は、1社だけでイノベーションが可能な時代ではなくなってきている。これからは連合によるイノベーションの時代であり、URCFのような場で実現できると嬉しいと思っていると語って基調講演を締めくくった。

心の豊かさを求める人が増えている
廣瀬通孝教授

超臨場感通信技術のデモ展示も

 このほか会場では参加企業や研究室によるデモ展示も行なわれていた。裸眼で見られる3D画像などのほか、東大廣瀬研からは小川奈美氏によるバーチャルなピアノを弾く動作とビジュアルを通じて身体拡張感を体験できる「えくす手」が出展されていた。手指の動きの検知にはモーションコントローラーのLeap motionが使われている。

東大・小川奈美氏による「えくす手」
裸眼3Dモニターと3Dコンテンツ。主に手術など
えくす手

 特に注目を集めていたのは発表当時にも話題になったNTT研究所のイマーシブテレプレゼンス技術「Kirari !」。半透過スクリーンを使って虚像をあたかもそこにあるかのように見せる「ペッパーズ・ゴースト」といわれる視覚トリックを利用した映像提示で、NTTが独自に開発した技術でリアルタイムに背景画像から撮影対象の人間だけを抜き出して投影することができるというもの。特に等身大で映し出したときにはインパクトが大きいという。課題は半透過ディスプレイを設置しないといけないこと。

NTT研究所イマーシブテレプレゼンス技術「Kirari !」
上から映像を投影して斜めに設置された半透過スクリーンに表示している

 このほか、情報通信研究機構(NICT)による、高画質(4K)3D画像を低遅延で伝送することで、危険な場所で作業する遠隔操作重機の作業効率を2割ほど上げることができる技術の提案や、KDDIによる人物を背景から切り出すことで在宅勤務時でも業務に参加しやすくする「仕事プロジェクト」の展示などが行なわれていた。

KDDI「仕事プロジェクト」
NICTによる4K3D画像による遠隔操作重機の作業効率を上げる技術