最新ニュース
【11月30日】
【11月29日】
【11月28日】

【Watch記事検索】

ホンダとATR、脳活動でロボットを操作する技術を開発
〜将来はASIMOも以心伝心で

実験に使用されたロボットハンド

5月24日発表



 5月24日、株式会社国際電気通信基礎技術研究所(ATR)と株式会社ホンダ・リサーチ・インスティチュート・ジャパン(HRI)は共同で、あらたなブレイン・マシーン・インターフェイス(BMI)を使って、脳活動を計測することでロボットを操作する基礎技術を開発したと発表し、日本科学未来館で記者会見を行なった。

 脳に電極を埋め込んだり、訓練の必要がないことが特徴。ヒトの脳血流を使って脳機能を計測するMRIを使うため、ヒトの動作からは7秒の時間差が生じるものの、ほぼリアルタイムに近い速度でロボットを動かすことに世界で初めて成功した。

 実験では、じゃんけん動作をロボットハンドに再現させた。正答率はほぼ85%だという。

 開発したのはATR脳情報研究所の神谷之康(かみたに ゆきやす)研究員ら。昨年5月に「ネイチャー・ニューロサイエンス」に発表した「ヒトの脳における視覚的・主観的内容のデコーディング(復号化)」の手法を発展させ、オフラインではなく、ほぼリアルタイムでデコードすることに成功した。

 神谷氏らの研究アプローチは、脳の活動をコード(符号)と考えるもの。脳活動を読み解く、つまりデコードすることで、脳活動が何を意味するのか読み取る。

 実験ではMRI(Magnetic Resonance Imaging、磁気共鳴画像法)を使って、脳活動に伴う脳の血流の変化を捉えて画像化する。それを1秒ごとに捉え、運動処理に関わる部分を抽出し、特徴パターンに対してノイズ除去などの画像処理を行なう。そしてそのパターンに対していまジャンケンのグー・チョキ・パーのいずれを出しているのかを判断するアルゴリズムを通してロボットにコマンドを送る仕組みだ。血流変化の部分におよそ5秒、画像処理に2秒かかるので、人間の動作から7秒ほど遅延がある。なお、指一本一本の動作を見ているわけではない。

 MRIは血液中のヘモグロビンの酸化状態の変化を通して脳活動を見る機械なので、直接、神経の活動を見ているわけではないし、時間的な解像度が低いという短所がある。いわば「画素数の低いケータイで文字がびっしり詰まった新聞を写真に撮って読み取ろうとするようなもの」(神谷氏)だという。神谷氏らは、多数の画素を有効に組み合わせ、サポートベクターマシン(Support Vector Machine)と呼ばれるパターン認識手法を使って学習させた「デコーダー」を使うことで、情報を取り出すことに成功した。

ATR脳情報研究所研究員 神谷之康氏 デコーディングとは脳活動の意味を解読すること 脳画像パターン認識によってでコーディングすることができるようになった
他のBMI技術と比べると使用者のトレーニングが不要で非侵襲などの利点がある システム基本構成 動作の例
(株)HRI 木村真弘氏。リアルタイムのパターン解析を担当した 【動画】実験の様子(再撮) 【動画】実験の様子。しばらく遅れて反応するのがわかる(再撮)

 この成果についてATR脳情報研究所の川人光男所長は、先日の「脳を活かす研究会」立ち上げについても言及し、脳科学はこれまでは基礎的なものだったが、これからは応用も視野に入れて進めていくと語った。

 (株)HRI取締役社長の川鍋智彦氏は「HRIは夢の科学技術を工業化することを担っている会社」だと自社を紹介。ASIMOのようなロボットが人間と共存するためには、そのための頭脳をどうやって開発するかが最大の課題だが、いっそのことロボットの脳の部分を人間の脳でサポート支援できないかと考えて、今回の共同研究を始めたという。

 川鍋氏は「まだ課題は多いが可能性は広がっている。例えば私の脳でASIMOに命令を出し、いわばASIMOを以心伝心で動かすこともできるようになるかもしれない。またロボットへの直接的な応用だけではなく、BMIはヒトとマシンの関係を革新していく技術だ」と述べ、「ホンダのように色々な製品を開発している会社にとってヒトを知ることは重要であり、ヒトを知ることはイコール脳を知ることだ。脳を知ることで、ロボットへの応用を含めて、新しい価値を生み出していきたい」と語った。

ATR脳情報研究所所長 川人光男氏 HRI取締役社長 川鍋智彦氏

 いっぽうATRの神谷氏らは、言語の読み取りなどに既にトライしており、今後は、脳波(EEG)や脳磁図(MEG)など、よりリアルタイムに近い計測技術を使ったり、近赤外分光法(NIRS)などの計測手法を組み合わせることにより、実際に身体を動かす前の意図を検出できるシステムの実現を目指す。例えば、人間がグー・チョキ・パーの何を出そうとしているのかを脳計測によって事前に判断し、常にじゃんけんに勝てるようなシステムを作ってみたいという。

 応用可能性としては、ALS患者や脊髄損傷患者などのための運動機能補助やコミュニケーション用途のほか、「非侵襲なので日常に使う情報端末としての応用可能性が考えられる」とし、「将来のこの技術が我々の日常生活に影響を与えていく可能性もあるのではないかと考えている」と語った。

記者会見出席者と実験に用いられているロボットハンド 今後の展開

 なお、今回、記者会見場となった日本科学未来館とATRは協力関係にあり、5月31日までの日程で未来館で開催中の特別企画展「脳! 内なる不思議の世界へ」でも、強化学習によって起きあがりを学習するロボットがデモ展示されている。

 企画展の入場料は900円。常設展も見ることができる。

特別企画展「脳! 内なる不思議の世界へ」。実物の脳が多数展示されている 頭の位置を高くすることを「報酬」、転倒を「罰」として強化学習して起きあがるロボット。森本淳氏、銅谷賢治氏らによる研究で、動物では大脳基底核でこれと似たようなことが起きていると考えられている
【動画】学習しているところ 【動画】数百回の学習の結果、起きあがれるようになる

□ホンダのホームページ
http://www.honda.co.jp/
□ニュースリリース
http://www.honda.co.jp/news/2006/c060524a.html
□ATRのホームページ
http://www.atr.jp/index_j.html
□関連記事
【5月11日】【森山】脳と機械を直結させるインターフェイスの未来
http://pc.watch.impress.co.jp/docs/2006/0511/kyokai48.htm

(2006年5月25日)

[Reported by 森山和道]

【PC Watchホームページ】


PC Watch編集部 pc-watch-info@impress.co.jp
お問い合わせに対して、個別にご回答はいたしません。

Copyright (c)2006 Impress Watch Corporation, an Impress Group company. All rights reserved.