ニュース

奈良先端科学技術大学院大学が挑む知能を備えたロボット研究

~触覚で物体を認識するロボットハンドなどを開発

知能システム制御研究室のロボットたち

 奈良先端科学技術大学院大学は、略称「NAIST」として知られている、国立の大学院大学である。その名の通り、学部を置かず、大学院生と教員のみで構成されており、先端科学技術分野に係わる高度な研究の推進や国際社会で指導的な役割を果たす研究者の養成を目的とする。

 NAISTは、情報科学研究科、バイオサイエンス研究科、物質創成科学研究科の3つの研究科があり、それぞれ多大な業績を上げているが、今回は、高度な知能を備えたロボットを開発している松原崇充准教授に、同氏が所属する情報科学研究科知能システム制御研究室(杉本謙二教授が主催)が開発中のロボットを紹介してもらう機会を得たので、レポートしたい。

奈良先端科学技術大学院大学 知能システム制御研究室 松原崇充准教授

多様なバックグラウンドを持つ学生が集う

 NAISTは、学部を持たない大学院大学であり、さまざまな大学から異なるバックグラウンドを持つ学生が集まってくることが特徴だ。関西の大学から進学してくる学生がもっとも多いが、北海道や沖縄、さらには海外からの留学生も多い。知能システム制御研究室では、オーストラリアと2年間の共同研究の予算を獲得しており、シドニー工科大学と学生を交換留学させているという。高専出身の人も多く、特に高専ロボコンの経験者は、電気も機械もソフトウェアも1人でできる人が多く、そのスキルを存分に活かして研究を行なっている。

 「機械や電気を専門にやってきた学生さんが、ほかのコンピュータサイエンスの大学院を受けようと思うと、コンピュータサイエンスの筆記試験を求められるので、なかなか入りにくいですが、NAISTの試験はかなり柔軟で、熱意さえあれば入ってこれます。知能ロボット研究は総合格闘技みたいなものなので、コンピュータサイエンスじゃない武器を持ってたとしても、うまく入っていけるかなと思います」(松原氏談)。

取材時に出会った知能システム制御研究室の松原班メンバー

アクティブタッチによる高速な触覚物体形状推定

 まず、松原准教授に見せていただいたのが、「アクティブタッチによる高速な触覚物体形状推定」に関する研究だ。知能ロボットの要素技術を開発し、それを応用に使っていくというのが、この研究室の基本的なスタンスだが、この5年間くらい取り組んでいるテーマの1つが、ロボットの触覚に関する情報処理である。その典型的な研究が、この触覚物体形状推定だ。

 触覚のみを頼りに物体の形状を推定するわけで、要するに目隠しされた状態で、モノをぺたぺた触って、どんなモノの形かを推定するという課題だ。課題を簡略化するために、研究では3次元の物体の底面形状を側面をタッチして推定するということをやっている。

 デモでは、ブロックが上から見てL字型に並んでいるが、ロボットはその形を知らないので、想像して勝手に仮説を立てる。ただし、勝手に思い浮かべただけなので、その確信度は低い。画面にはその確信度が色分けされており、基本的には確信度が低いところをタッチしていくことで、効率良く形状を推定できるのだが、それだと実際のアームの移動に必要なコスト、時間を考えていないので、そういったロボット側の都合、トラベルコストと思い浮かべた形の確信度を加味して、どこを触っていけばいいかという戦略を、ロボットが自分で考えながら触っていくというものだ。

アクティブタッチによる高速な触覚物体形状推定に利用されているロボットアーム。先端には8つの圧力センサーが取り付けられている

 使われているロボットアームは、アメリカのBarret TechnologyのWAM Armという市販品だが、その指先に修士の学生が圧電素子を利用して自作した圧力センサーが45度ずつ8方向に貼り付けられている。センサーからの信号はRaspberry Piで処理して、ROS(Robot Operating System)とマスワークスのMATLABを利用して物体の形状を推定し、アームの移動経路を決定する仕組みだ。

このように指先で側面をぺたぺた触ることで、形状を推定していく

 最初はアームの指先が空を切ることもあるが、空を切ることでも仮説がどんどん実際の形に近づいていき、確信度も上がっていく。「9回くらい触ると、適当な絵になんとなくL字型に近づいて、20回くらいやると結構それらしい形になります。きちんとL字型にならないのは、貼ってる圧電素子が8個しかないことや指先の太さによる限界です。ただ、ここで作っているのはあくまでもソフトウェアがメインです」。

 ロボットアーム自体のコントロールもROSとMATLABのRobotics System Toolboxを利用しているという。

 「中身はBarret Technologyがもともと出していたC++のライブラリですが、それをROSでラップし、Robotics System Toolboxで全部やってます。ROSとMATLABさまさまですね」(松原氏談)。

圧力センサーからの信号は左上のブレッドボードを通して、右下のRaspberry Piに入り、さらにPCへデータが転送される
4回タッチを行なった後の状況。上の図がロボットが推定している形状で、下の左が確信度の評価、中央が移動コストの評価、右がその両者を合わせた総合評価である
センサーからのデータは最終的にMATLABに受け渡され、形状推定やアームの移動経路決定を行なう

双腕ロボットによる移乗介助動作の最適設計

 次に見せていただいたのが「ベイズ最適化を用いた双腕ロボットによる移乗介助動作の最適設計」に関する研究である。これは介護支援ロボットでの実用化を前提とした研究であり、ベッドに寝ている状態の人間を双腕によって抱き上げ、車いすなどに移乗させる際に、その人間が不快に感じない抱き上げを実現しようというものである。移乗介助というテーマは、厚労省が掲げている日本のフラグシップ課題の1つでもある。

 ハードウェアとしては、理化学研究所が開発していた介護ロボット「ロベア」のプロトタイプを利用し、腕の付け根に6軸の大型フォースセンサーが取り付けられている。また、身体にマーカーを付けて、カメラで身体の動きも計測できるようになっており、そうしたセンサー情報と被験者の快適か、不快かというフィードバックを元に、どう動けば快適に抱き上げて移乗させることができるかということを、ロボットが自分で見つけていくというものだ。

双腕ロボットによる移乗介助動作の最適設計の研究。ロベアのプロトタイプが使われている

 人の体重や体格、着ている服などによって、快適な抱き上げ動作が変わるのだが、それを試行錯誤で作るのではなく、ロボットと人との少ないインタラクション、何回かのトライアルのデータから、能動的に探索を行なっていく。探索アルゴリズムとしては、最近流行しているベイズ最適化を利用している。

移乗介助ロボットの動作の様子。120kgまでの人を抱き上げることができる

 「重さは120kgまで耐えられる設計になっています。動作と快適度の関数関係をいかに探索するかという問題で、最初は何点かランダムに試しながら、関数全体を推測し、一番いいポイントを探していきます。これにもMATLABが使われています。実際の被験者でやると10回から20回くらいで、その人にあった快適な動作が出てきます。これは、修論の研究テーマですが、10人くらいを対象に実験を行ない、それぞれの人が快適に感じる動作を見つけました。そこで、その人の体格とか体重とか、そういった特徴との関係性を統計解析して、その次の人にはもうトライアルなしで、最適な移乗動作を予測できるようにすることが目標です」(松原氏談)。

腕の付け根には6軸の大型フォースセンサーが取り付けられている
このように被験者は双腕ロボットに横たわって実験を行なう
ロボットの動作と人間の快適度の関係を示すグラフ。この関数を推定する
身体の動きを取り込むためのカメラ

触覚で物体を認識するロボットハンド

 次に見せていただいたのが、今回の取材の主役でもある「触覚で物体を認識するロボットハンド」である。このロボットは、指先に触覚センサーを備えており、物体をこすったり、握ったりする行動から取得した触覚情報を元に、次の探索行動を計画し、それを繰り返すことで、その物体を認識・識別するというものだ。暗闇の中で手探りで物体を識別するわけで、最初に紹介したロボットをさらに進化させたものだ。

 ロボットのハードウェアとしては、イギリスのShadow Robot Companyが市販しているShadow Dexterous Handが使われている。本来は5本指のロボットハンドだが、かなり高価なため、今は3本指で研究を行なっているという。このロボットハンドの特徴は、アクチュエーターとして、圧縮空気を動力とするゴム人工筋肉が使われていることだ。

 「普通のロボットハンドは電気で動くモーターとギアで動きますが、それだとカチカチなので危ないんです。特にモノをつかんだりする、何かとそっと接触するとかっていうのが、従来のロボットは苦手ですが、このロボットは空気とゴムで動くため、柔らかい動きができます」(松原氏談)。

 その3本の指先に取り付けられているのが、アメリカのSynTouchが販売しているBioTacと呼ばれる触覚センサーだ。この触覚センサーは、人間の指先の皮膚感覚と同じ情報を検知する画期的な生体模倣触覚センサーであり、中に19個の圧電素子と1個の温度センサーが入っていて、その中に粘性の高い血液に模した液体が入っており、さらにその上をゴムの膜で覆って人工指紋まで切ってあるというものだ。センサー自体もふにゃふにゃなので、その取り扱いはかなり難しい。

触覚で物体を認識するロボットハンド。指先に付いている緑色のセンサーがBioTacである

 「センサー自体に液体が入っていますから、少々のことでは壊れないのはいいのですが、従来の制御技術では扱いにくいシステムです。人間の手並のモーターコントロールを実装しないと、ふにゃふにゃした手で、ぶにぶにしたセンサーで外界と接触するのは難しいですね」(松原氏談)。

ロボットハンドは、圧縮空気を動力とするゴム人工筋肉で動く

 まずこのシステムで、いろいろな物体を触り、その経験を記憶する。その上で、何か物体が与えられた時にぺたぺた触ることで、その触り心地からそれが何か、ロボットの記憶の中にあるどれかを識別する機能を実現することがテーマである。ただし、その時にも闇雲にぺたぺた触るのではなくて、最初にまず適当に触ってみてその感じから、確信度を上げるためには、次にどう触るべきかという、能動的なタッチの戦略を、過去の経験データから自動生成できる自律的なシステムを作ることが目的だ。

 研究では、ステンレス製のコップやプラスチック製のコップ、ガラス製のグラスなど、さまざまな円筒形の物体を使って経験を積ませたという。材質の違いは、固さや温度などから判断している。これまで物体の認識と言えば、カメラを使ったコンピュータビジョンで行なうことが多く、触覚だけで認識を行なおうというのは画期的だ。

触覚での物体認識の様子。このように、ゆっくりと柔らかく動作する。バチバチという音は圧縮空気をコントロールする弁が開閉する音である
指の形状やセンサーからの情報はリアルタイムに、MATLABに取り込まれる

 「人間もそうですが、9割以上の情報は視覚から得ているので、ロボット研究者も、ビジョンを使うことが圧倒的に多いですね。その背景としては、需要の大きなビジョンセンサーの方が先に発展してきたということもあります。ようやく製品レベルでいろんな情報がとれる触覚センサーが売られるようになったので、これからは触覚研究が増えてくると思います。」(松原氏談)。

物体を認識している様子を上から見たところ
研究では、このようなターンテーブルが作られ、次々と物体を触って学習を繰り返していった

ゴムのような不定形物操作で事業化を目指す

 松原准教授らが目標としているテーマについても、お訊きすることができた。以上の研究の集大成として現在取り組んでいる課題が、ゴムのような柔らかい不定形物操作が可能なロボットである。

 NEDOが今年(2016年)からスタートした「次世代ロボット中核技術開発/次世代人工知能技術分野」という新プロジェクトに基づき、産総研と連携していくつかの大学に予算が付けられているが、NAISTと信州大学による不定形物操作の研究開発も採択されたという。これは、最長5年のプロジェクトで、本当の工場、産業用途向けの柔軟物、不定形物操作ができるロボットを開発するというものだ。

現在取り組んでいる不定形物操作ができるロボット。ハードウェアとしては双腕ロボットBaxterを利用している

 「まだ具体的な成果はないのですが、こんなことができたらいいなと考えているのは、輪ゴムの取り扱いですね。輪ゴムは、日本全国で300億個くらい消費されているらしいですが、輪ゴムの機能ってすごいですよね。単に丸めたものを輪ゴムで留めたり、髪の毛をまとめて留めたりって使い方ももちろんありますが、変わった使い方だとペンキ缶に付けて液だれを防ぐとか。輪ゴムはかける力によって形が大きく変わるので、これをロボットで扱うというのは、非常に難しいんですよ。固い紐だったら、どこを持てば、どう重力がかかってどういう形になるとか、そういう形が多少は読めるんですけど、輪ゴムはどのくらい力が加わるかでも形が変わりますし、縮む力を利用してモノを束ねたりできるんですね。だから、人間が輪ゴムを上手に使えるのも、そういう経験があるからですよね。これくらいの固さと張力があるから、どこにどう付けたら、こんな機能が生み出されるっていうことを予測して利用しているわけです。こういうことをロボットで実現したい」(松原氏談)。

 ハードウェアとしては、双腕ロボットBaxterを使っているが、ゴムを引っぱるためには、ある程度強力なグリッパーが必要になるので、グリッパーは交換している。また、指先のいろいろな面に触覚センサーを面に付けて、力を測れるように改良している。さらに、変形するゴムの形状をセンシングする必要があるので、Kinect V2を数台使って、物体にひっかけたゴムの形状を見るようにしている。

 「今は固い部品を固く使うロボットは結構実用化されてますが、柔らかいものを柔らかさを利用してというのは、全然産業化できていないので、これが私が目指している当面の出口です。非常に難しい課題ですが、楽しみながら取り組んでいきたいです」(松原氏談)。

グリッパーは強力なものに交換している。下の机の上にあるのは触覚センサーだ。右側のカラフルなゴムバンドはエクササイズなどに使うゴムバンドであり、色によって固さが違う
Baxterの周囲にはKinect V2が数台設置されており、ゴムの形状を検出する

考えれば考えるほど人間はすさまじい

 輪ゴムを制御したいというアイデアは、どこから生まれたのだろうか? 松原准教授にその秘密を訊ねてみた。

 「難しいのはバランスですね。実用化・事業化に繋げたいというのは大前提ですし、研究としての挑戦も含まれていないとダメなので、固まるまで行ったり来たりしていますね。アイデアを出して、ほかの人にぶつけてみたり、研究者として真面目に論文を査読するかのように、自分のアイデアを精査するフェイズと、それを全て忘れて普通にネットサーフィンとかして、『輪ゴムこんな売れてんのや!』」とかいうのを何度も行ったり来たりして、両方を満たす答を探します」。

 これまでの5年間は、コンピュータビジョンをやっている優れた研究者はたくさんいるので、ビジョンはやらないと決意してきたが、触覚だけで事業化はなかなか難しいので、今回は、ビジョンセンサーも付けて統合してやることにしたという。研究を進めていくことで、痛感したのが人間のすさまじさだという。人間は、眼や手、五感をフルに使って外界を認識しているが、それをそのままロボットにやらせると、情報処理が追いつかない。

 「考えれば考えるほど、人間はすさまじいですね、情報を取捨選択する能力が。全身に触覚が付いていますが、いつもそれを使っているわけじゃなく、局所的に選択するわけですよね。そういう人間が持っているスキルをどういう風に定式化して、アルゴリズムにするかというのが、求められているわけです」(松原氏談)。

MATLABのおかげで研究の速度が大きく上がった

 松原准教授が手がけているロボットは、ほぼ全てがMATLABの恩恵を受けており、同氏にとってもうMATLABがない研究は考えられないという。

 「私が最初にMATLABに出会ったのは、20歳くらいの時ですね。僕も高専出身なんですが、高専5年生の時に研究室が制御系で、そこでもうMATLABが使われてました。当時はSimulinkしか使っていなかったですけど、それからずっとですね。大学に編入して、電気モーター制御の研究室に所属したのですが、そこでもインフラとしてMATLABが使われていて、大学院でNAISTやATRに行っても、どこでも常にMATLABがあるという。以前、コンピュータビジョン系の研究室で助教をさせていただいたことがありますが、そこではMATLABはあまり流行なってなくて、Open CVが席巻していたのですが、今はMATLABもOpen CVとの親和性も高くなってますし、MATLABを使わないということはほとんどないですね」(松原氏談)。

 NAISTに入学してくる学生もすぐにMATLABを使いこなせるようになるというが、便利な環境になった分、学生研究に対する要求レベルも高くなったという。

 「ロボットの要素技術を開発した時に、その価値っていうのは、統合されたシステムに実装して全体を動かして初めて評価できるわけです。だから、自分達で作っていないところが、いかに簡単に用意できてちゃんと動くかっていうのが大事です。そこをMATLABでカバーできるのはかなり楽になります。ROSも助けてくれますし、今はセンサーを買ってくれば、ほとんど専門的な知識がなくても使うことができます。そういった意味では、学生さんにとってはいい時代でもありますが、その分要求レベルも上がってます。開発したけど実装が間に合わないので、評価できなかったというのがもう許されないんですね。10年前だと修士の学生さんだと、要素技術を開発して実際のシステムに実装して、実問題的な例題で評価するところまでやりなさいということにはならなかったのですが、今は上手にやるとできちゃうので、できないのは上手にやってないからだってことになりますよね。もちろんそれをサポートする教員側も大変なので、相応の覚悟を持って取り組んでいます。」(松原氏談)

(石井 英男)