森山和道の「ヒトと機械の境界面」

「次の大きな研究の波」、共生と調和を目指す新たな情報技術とは
~「調和と共生 人と情報環境が創る新しい世界」レポート



国立情報学研究所副所長 東倉洋一氏。「共生社会に向けた人間調和型情報技術の構築」研究領域研究統括

 独立行政法人科学技術振興機構(JST)のCREST「共生社会に向けた人間調和型情報技術の構築」研究領域の第2回公開シンポジウム「調和と共生 -人と情報環境が創る新しい世界-」が10月19日に行なわれた。調和と共生をキーワードにして人間と情報環境の関わりが生み出す新しい価値を目指すことを目指している研究プロジェクトで、特に人間にとって今後の情報環境はどうあるべきかに焦点をあてて研究を実施しているという。シンポジウムと合わせてデモンストレーションも行なわれたので、合わせてレポートする。

 「共生社会に向けた人間調和型情報技術の構築」研究領域の研究統括で、国立情報学研究所副所長の東倉洋一氏は、人間社会は、生存のための情報を必要としていた狩猟社会、農業社会を経て、物質的豊かさのための情報を必要とする工業社会、そして楽しみのための情報を必要とする情報社会にいたり、いまは人間的能力拡大 課題克服のための情報を必要とする「融合社会」を迎えようとしているという見方を示し、情報は永続的な社会をデザインするために必要だと述べた。

 東倉氏はWeb社会と現実社会のあいだで情報が循環する融合社会の一例として、東京大学大学院情報学環教授の相澤清晴氏らのチームによる食に関するライフログ「FoodLog」を挙げた。「FoodLog」は食事を画像で撮影し、解析、栄養分析し、データベース化して可視化する。Webサービスとして提供されるそれが現実社会にフィードバックして、循環していく。また、そのような社会では、人間と情報環境の調和も必要となる。人間が情報環境に働きかけ、情報環境も人間に働きかけることで相互適応が生まれる。ではどのような手法で相互作用していくのか。東倉氏は、平成21年度に採択された8研究課題をとりあげ、脳、視覚、聴覚それぞれに情報技術的観点で分類して解説した。具体的には人間が無意識に行なっている処理や錯覚、人間をはるかに超える高サンプリング能力をもつセンサー、人は何をどのように注目しているのかといったモデル構築研究のほか、触覚の記録 伝送 再生 編集 提示、擬似感覚の生成などの研究が行なわれている。

情報社会から「融合社会」へ「FoodLog」のためのカロリー計算アプリ「Food log Cal」は11月下旬にリリース予定
京都大学大学院情報学研究科教授 石田亨氏。JSTさきがけ「情報環境と人」研究代表

 続けてこのCRESTと同じ研究目標を持つ、さきがけ「情報環境と人」研究代表の京都大学大学院情報学研究科教授の石田亨氏が登壇した。

 「さきがけ」は「CREST」と違って個人研究の枠組みで、主に若手の研究者たちが採択されている。さきがけ「情報環境と人」では知的機能の先端研究、評価研究、ネットワーキング研究の3つの課題で研究採択をしている。その採択課題を見ていると「今の若い研究者たちがどんな興味をもって、情報環境と人に向かっているのかわかる」と石田氏は語った。「次の大きな研究の波」はこの中に隠れており、それは研究課題を新しい切り口で見てカテゴライズしなおすことで見えてくるのではないか考えているという。

 石田氏は「ロボット」、「コミュニケーション」、「デバイス」、そして、「大挑戦!」という4つのテーマを挙げた。まずロボット分野では、東大の高野渉氏による運動を分節して記号化して運動記号と自然言語を統計的な手法を使ってマッピングすることでつながりを表現する研究、京大の尾形哲也氏による人とインタラクションできるロボットを使って神経力学モデルに情報を自己組織化させて記号を創発させようとする研究、筑波大学の田中文英氏による世界の子ども達を遠隔操作できるロボットを使ってつないで、子供がロボットに言葉を教える行為を通じて、子供自身も英語を勉強していくといった研究などが紹介された。

東大 高野渉氏「行動の記号化を基盤とした身振り 言語を通じてコミュニケーションするロボットの知能設計」京大 尾形哲也氏「長期インタラクション創発を可能とする知能化空間の設計論」筑波大学 田中文英氏「世界の子ども達をつなぐ遠隔操作ロボットシステム」

 コミュニケーション分野については、国立情報学研究所の坊農真弓氏によるろう者による手話を通じたインタラクションを理解し、それを使って音声と手話が混ざって使われる情報環境デザインのガイドラインを作ろうとする研究、京大の高梨克也氏によるグループでのミーティングなど多人数のインタラクションの会話分析手法の開発、筑波大学 鈴木健嗣氏による広汎性発達障害児を対象とした人工物を使って社会的インタラクションを助けるデバイスを創る研究などが紹介された。

 デバイス分野については、慶応義塾大学の三木則尚氏によるMEMSを利用した触覚ディスプレイや透過型ウェアラブルディスプレイ、フレキシブルな脳波検出電極などを使って、人を刺激、あるいは計測、そして環境側からのさりげない人間への情報伝達手法を開発する研究、電気通信大学 梶本裕之氏による触覚の認知メカニズムにフォーカスした運動や外力の錯誤の研究、大阪大学 中澤篤史氏による高速度LEDプロジェクタによる環境光投影と、それの眼球の表面反射を使った視線検出技術手法の開発などが紹介された。

国立情報学研究所 坊農真弓氏「インタラクション理解に基づく調和的情報保障環境の構築」京大 高梨克也氏「多人数インタラクション理解のための会話分析手法の開発」筑波大学 鈴木健嗣氏「ソーシャル プレイウェアによる社会的交流支援」
慶応義塾大学 三木則尚氏「人刺激 計測MEMSを用いた環境知能の効果的伝達方法の開発」電気通信大学 梶本裕之氏「触覚の時空間認知メカニズムの解明に基づく実世界情報提示」大阪大学 中澤篤史氏「広領域 非装着型注視点検出技術の開発」

 最後に挑戦的なテーマのなかでもかなり挑戦的な「大挑戦!」というテーマの研究からは、3つ紹介された。1つ目は東大 舘知宏氏による物理ベースデザインのためのインタラクティブ情報環境として折りたたみ式の仮設建築空間を実現するための、シート材料などを用いた変形するインフィルのようなものをパーソナル ファブリケーションの手法で作る研究。「デザインをシミュレーションの逆問題としてとらえる」という視点はなるほど面白い。

 理研ジェネシスの城戸隆氏は、パーソナルゲノム解析の低コスト化に伴ってニーズが出始めている、遺伝子解析の結果を個人個人にどのように伝えればいいのかという手法の研究を手がけている。国際メディア研究財団の藤木淳氏は、立体空間をメディアとしてとらえて、3次元空間での錯覚を用いた立体的な表現をつくっていくという研究を行なっている。

 石田氏は最後に、日本の工学研究の問題について触れて、「工学の研究がサイエンスや基礎研究に向かう傾向があると感じている」と述べた。サイエンスや基礎研究に向かうこと自体が悪いわけではない。だが、工学には「社会に役立つ」という、もう1つの側面もある。応用研究はどうあるべきなのか。石田氏は技術開発をして実証実験をするというスタイルがいいのかどうか、考え直す時期が来ており、ラボでの統制された環境での実証実験から、フィールドへ移る時期が来ているのではないか、と述べた。

 基礎研究は展開する力が必要とされ、フィールドから始めると、基礎研究へと帰着させる力が問いかけられ、必要とされる。石田氏はフィールドは豊かな研究の土壌であり、痛みもあるが、これからのイノベーションはフィールドからしか起こらないと確信していると締めくくり、研究者たちに「ぜひフィールドに立って複雑で難しい問題に立ってほしい」と呼びかけた。

東大 舘 知宏氏「物理ベースデザインのためのインタラクティブ情報環境の構築」理研ジェネシスの城戸隆氏「遺伝子解析と人工知能技術を用いたパーソナルゲノム情報環境の提案と評価」国際メディア研究財団の藤木淳氏「立体的メディアのための人間の知覚特性に基づく情報提示表現手法の開発」

●セッション1「行動 環境を理解する」

大阪府立大学大学院工学研究科教授 黄瀬浩一氏

 大阪府立大学大学院工学研究科教授の黄瀬浩一氏は、「文字 文書メディアの新しい利用基盤技術の開発とそれに基づく人間調和型情報環境の構築」と題して講演した。文字情報は非常に重要な情報である。黄瀬氏らは3つのアプリケーション、すなわち、全方位でなんでも認識するもの、人が読んだものを環境撮影と視線検出が行なえるウェアラブルカメラなどを使ってすべて記録させておき取り出せるようにする技術、プロジェクタなどで本やポスターに情報を重畳する文字 文書メディアに対する拡張技術に焦点をあてて開発を行なっている。これらの基盤技術として、大規模データベース、実時間文書画像認識などの技術開発も行なっており、講演でもリアルタイムで文書をWebカメラで認識して関連情報を重畳するデモンストレーションが行なわれた。

 環境中のノイズの中で文字を認識するためにはアフィン変換不変のテンプレートマッチングにハッシュテーブルによる高速照合を組み合わせている。大規模サンプルを使って究極の精度のパターン認識を目指しているという。だが一般環境内の文字データはまだ不足しているので、今回の研究で大規模データベースを構築してサンプル数も増やす。斜めから撮影したり、さまざまなゆがんだレイアウトであったり、背景と見分けにくいような文字であっても認識できるようになりつつあるという。

 カメラを使って撮影した文字はゆがんでいたり欠損したりしているが、それでも認識するために、研究グループではグラフを使った認識手法を開発中だ。また、認識しやすくするための付加情報を最初から埋め込んだフォントの開発も行なっている。既存のフォントから新しいフォントを合成したりする試みを行なっているところだという。

文字 文書メディアは今でも非常に重要3つのアプリケーションで文字情報に挑んでいる任意の文書をリアルタイムで認識して既存データベース内の文書と照合し、関連情報を重畳するデモ
大阪大学産業科学研究所教授 八木康史氏

 大阪大学産業科学研究所教授の八木康史氏は「歩容意図行動モデルに基づいた人物行動解析と心を写す情報環境の構築」として、人がどういう意図や行動をもって歩いているのかを映像から認識するという技術開発について述べた。

 もし映像から人の内部状態、感情や意図が推定できれば、犯罪予防からマーケティングまでさまざまな用途に役立つ。歩容、すなわち歩く姿をどのように解析すればいいのか。注意と視線の関係は比較的研究が進んでいるが、視線と歩容の研究は直接には繋がらない。だが歩容のうち、頭部方向だけ切り出せば、多少は近くなる。特にうまく場を設定すれば、視線と頭部の関係を近づけることができる。八木氏らは頭部運動からの視線移動の推定する実験を行なったところ、特に頭部と胸部の関係に着目すれば、ある程度頭部方向から視線方向を推定可能だとわかった。

 人の歩行意図は、場が持つ意図によってある程度規定される。たとえば階段やエスカレータなどと、平坦な場所とでは人の歩き方は異なるし、トイレの近くではトイレに入ろうとしたりトイレから出てきたりする意図をもった歩行パターンが観察される。

 今年(2011年)夏には日本科学未来館でのアウトリーチを兼ねたゲームを通じて、データ収集も行ない、歩行パターンのコーパスの生成を行なった。計測手段にはカメラやレーザースキャナのほか、モーションセンサーやMicrosoftのKinectを使って距離データなどを取得した。注視すると歩行がどう変わるか、負荷をかけたり視野を狭くする高齢者体験グッズをつけることでどのように歩行が変わるかといった分析をいまし始めたところだという。

歩容と意図推定さまざまなセンサー類で歩行の様子を測定して意図を推定する日本科学未来館での実験の様子

●セッション2 「新しいコミュニケーションを生み出す」

ATR/大阪大学の石黒浩氏。手に抱えているのは「テレノイド」。頭部についているのはカメラ

 株式会社国際電気通信基礎技術研究所(ATR)石黒浩特別研究室室長で、大阪大学大学院基礎工学研究科教授の石黒浩氏は自分そっくりのアンドロイドロボットのジェミノイド等で著名な研究者である。石黒氏はジェミノイドを使っていると操作者も対話者もすぐに適応すると述べた。だが石黒氏の姿かたちが誰もが適応しやすい最適な形ではない。そこで人間にしか見えないが年齢や性別がわからないような姿で、対話できる物体として、遠隔コミュニケーションツール「テレノイド」をデザインしたと述べた。テレノイドは相手の存在を感じながら対話するデバイスである。実証実験では高齢者は特に喜んでさわってくれるので、実体をもったコミュニケーションメディアの可能性はあるなと感じるという。

 テレノイドを小型化して携帯電話サイズにしたのがエルフォイドである。通話の機能だけみれば従来の携帯電話はそれほど進歩していない。石黒氏はAppleによる音声インターフェース「Siri」の発表を見て、携帯電話の形そのものにもっと機能を持たせるべきなのではないかとさらに意を強くしたという。テレノイドとエルフォイドについては記者発表時に詳報しているので詳細は省く。石黒氏は日本から本当に新しい商品を発信していきたいと改めて述べた。

 エルフォイドが普及するかどうかは別としても、今後の携帯電話がさまざまなところに埋め込まれ、バリエーションも多種多様になっていく流れ自体は確かなようだ。またエルフォイドは、エルフォイドから声がしているときは他者のような感じがするが、通話していないときに手に持つと自分の一部のように感じるそうだ。今は対話中にどのくらい人の存在を感じたか計測するための指標を構築している段階だという。

 人の存在感を送るための基礎技術としては、音声から唇の形状や動きを推定する技術、屋内でも屋外でも人の表情を認識できる「Active Appearance Model」を使った顔認識、計測したデータを使って受け手側がどう評価するかという問題に関する研究などを行なっている。いまのところ、アバターでもビデオであっても、会話に対応した動きがある方が、会話がスムーズに運ぶという。

 テレノイドを使った実験では、国内のほか、福祉関係でのサービスのシステムを作ろうとしているデンマークでも実験を行ない、世界的な普及も目指す。小型であるエルフォイドにはモーターを使った動きよりも、LEDを用いて錯視効果をもたらすようなインターフェイスデザインの研究開発などを進めていき、アルスエレクトロニカなどでも大規模な実験を行なうという。

ヒト型ケータイ「エルフォイド」屋外 屋内でもロバストな表情認識技術動きのあるなしが会話に影響を与えるという
テレノイドの高齢者からの評価は比較的ポジティブLEDの明滅を使ったインタラクションエルフォイドの最終目標
京都大学大学院工学研究科 准教授 伊勢史郎氏

 続けて京都大学大学院工学研究科 准教授の伊勢史郎氏は「音楽を用いた創造 交流活動を支援する聴空間共有システムの開発」と題して、音をキーワードとして、空間共有の重要性とその研究について講演した。伊勢氏は来場者に対して、「なぜ皆さんはこの会場に実際にいるのか」と問いかけ、その理由は、情報の信頼性、リアリティを判断するためではないかと述べた。リアリティを得るためには、精度の高い信号を得ること、立体感があることなどが挙げられることが多いが、これから大事なことは、「相互作用」ではないかと考えているという。情報の発信者に対して受け手が反応する、相互作用があることが実空間の特徴であり、リアリティを得るための条件だという。

 今の視聴覚ディスプレイの完成度は高い。だが、見る側が姿勢を変えても出力される情報はあまり変わらない。そのために頭部装着型や没入型のディスプレイが提案されてきた。完成度も高くなっている。原音場の音圧と音圧勾配を計測し、再生音場がそれと等しくなるように再生することができるようになっている。だが、現状ではシステムの規模が大きくデモも難しい。そこで今年度に「音響樽」という壁面にスピーカーをつけた音響装置を開発した。リアルタイムに音場を作ることで、音響樽の中に入った演奏者が、その中でコンサートホールを感じながら演奏できるレベルになる予定だ。音場再生用の信号処理システムの構築が研究課題である。なお収録システムは80チャンネルを同時に収録できるもので、バッテリ駆動で動くようにした。

 評価は物性的な評価以外にも、心理的な評価も行なう。心理評価については、唾液中のホルモン分析や、聴覚を手がかりとした脳領域検出、そのほかリアリティの評価要素に関する心理実験などを行なっており、詳細は紹介されなかったが「コミュニケーションの本質に迫れそうな結果が得られている」と述べた。

 アンサンブル演奏においては、時間遅延や「同時性」についても重要な問題となる。キーボードを打鍵した音が響いたときに、どのくらいのずれが許容しているのかというと、平均209msecくらいで遅延の感覚が起こり、これは視覚よりも聴覚のほうが遅延に敏感であることを示しているという。なおこの音の遅延判断については、文脈依存で変わることが知られている。たとえば自分が触って音が出る場合のほうが、単に音が鳴ったタイミングを判断するよりもシビアだ。

 将来的には、聴覚的な「どこでもドア」である音響樽を住宅設備として普及させていきたいと述べた。またサイエンスとしては、人間が互いに触れ合うコミュニケーションを工学的に実現するために、どのようにアプローチしていけばいいのか探っていきたいと述べた。

 質疑応答では、共同研究者であるNTTコミュニケーション科学基礎研究所 上席特別研究員の柏野牧夫氏からもコメントがあり、人は自分の身体にごく近い近傍空間においては聴覚が触覚を引き起こすようなことが現象が知られているので、特に親密な相手と話すときはたとえ音という聴覚感だけであってもリアルな音の再生は意味が変わってくるだろうとあった。

聴空間共有システム「音響樽」聴空間共有システムの全体構成身体動作と聴覚刺激の非同時性判断実験
ATR知能ロボティクス研究所 上級研究員 神田崇行氏

 最後に株式会社国際電気通信基礎技術研究所(ATR) 知能ロボティクス研究所 上級研究員の神田崇行氏は、「ロボットによる街角の情報環境の構築」として、サービスロボットが今後実際に街中でサービスを行なう状況での環境知能や、人の行動の予測モデルの研究について述べた。ロボットはスクリーンエージェントよりも親しみをもたれやすく、実体があることによる存在感も人に楽しいという感覚を与えるという。ロボットの方の行動能力自体もだいぶ向上してきている。

 では、街角に実際にロボットが導入しにくい理由は何なのか。ロボットは人間にとって常識的なふるまいができない。人ならすぐにわかる常識(環境理解)がないからだ。ロボットがサービスを実際に提供するためには、単に認識して行動するだけではなく、人との自然な距離感や立ち位置など、人と関わるための新たな技術としてのヒューマン ロボット インタラクション(HRI)が必要だと神田氏は述べた。現在進めている研究では、街角でロボットが普段どおりに活動していても、ロボットからサービスを受けることができる技術の構築が目標だ。具体的には、歩行者と調和して移動できるようになること、環境に調和しながら人々に話しかけることの2点を掲げている。

 実際にできていることとして、高所から測ることで邪魔にならない3次元のレーザーレンジファインダーを使った人の位置のセンシング技術、歩行者同士が近づくときの「social force」という反発力を想定する既存手法に加えて衝突予測時間を考慮したモデルを構築することによる歩行者の移動軌跡の予測モデルの構築、それをさらにロボットに応用した場合の動き、話しかけやすい動きかたのモデル化などが紹介された。

 人が人に対してとりたい距離と、人がロボットに対して取りたい距離は違うし、極端な状況下では人間は人間を押しのけて通ることもできるが、ロボットがそれをやることはまず許されない。そういったことを考慮してロボットに実装した。また、ロボット側から話しかけるのではなく、ロボット側が話しかけられるような状況を作ることを考え、道案内をする警備員の動きを観察したところ、正面からすれ違い、視線を向けるといった動きがあることがわかった。それを再現して実装したところ、評価があがったという。今後は、グループで歩く歩行者に対してスムーズに動けるようにモデル化を改良したり、場所に応じた行動、広域での行動について改良を進めていくという。

現在のロボットは常識(環境理解)がない予測を取り入れた移動モデルを導入話しかけやすい歩き方(移動の仕方)を実現するために警備員の歩き方のモデル化を行なった