森山和道の「ヒトと機械の境界面」

人類初の“サイボーグ”−ケビン・ウォーリック教授来日
〜インタラクション2003レポート



インタラクション2003の講演が行なわれた学術総合センター

 2月27日、28日と神田・神保町にある学術総合センターで「インタラクション2003」が行なわれた。

 '97年にスタートした“インタラクション”は、情報処理学会のヒューマンインタフェース研究会・グループウェアとネットワークサービス研究会が主催しているイベント。そのほか電子情報通信学会、ヒューマンインタフェース学会、日本バーチャルリアリティ学会、サイバースペースと仮想都市研究会、日本認知科学会、日本ソフトウェア科学会、インタラクティブシステムとソフトウェア研究会、日本社会心理学会が協賛している。

 “インタラクション”というイベント名には、もちろん、研究者同士のインタラクションという意味も重ねられている。計算機科学やインタラクティブ、ウェアラブル、メディア論などの研究者が横断的に一堂に介するだけではなく、実際に多数のデモが行なわれる、ちょっと変わったイベントだ。それっぽいデバイスがズラズラッと並べられ、開発者本人によるデモが披露される会場の雰囲気は、学会というよりもむしろ「文化祭」に近く、筆者も楽しみにしていたイベントである。そこで今回は簡単ながら、“インタラクション”イベントレポートをお届けする。




■“I, Cyborg”

 今年は、'98年と2002年、自分の体にチップを埋め込んだ実験でマスコミにもしばしば登場する有名人、イギリス・レディング大学のケビン・ウォーリック(Kevin Warwick)教授が来日。招待講演を行なった。タイトルは「A Bi-Directional Interface Between the Human Nervous System and the Internet」。「人間の神経系とインターネットの相互直接接続インタフェース」といったところか。

ケビン・ウォーリック教授。「マスコミ好き」との前評判どおり、撮影にも気さくに応じてくれた チップを埋めていた左腕を示しながら講演。なお現在はチップは抜き取っており、サイボーグではなく「普通の人間」とのこと ウォーリック教授が'98年8月に皮下に埋め込んだチップ。大きさ23mm。滅菌したガラス容器のなかに基板、64bitのプロセッサ、電力を供給するコイルが入っている。実験期間は1週間だった

2002年に埋め込んだチップ。10×10、合計100本の電極を正中神経に刺し、神経信号を直接ピックアップ。車いすや義手を動かす実験を行なった。実験期間は3カ月 目隠しした状態で、ロボットの超音波センサーからの入力を腕の神経で「直接」受け取るウォーリック教授

 埋め込んだチップによって、彼が大学の建物内を歩き回ってもスタッフは位置をすぐに確認することができたり、腕をふるとドアが開くといったデモの話は、読者も既にテレビや他媒体での報道で、おなじみのことと思う。だがそれだけならば、スマートカード(ICカード)でも同じことができる。義手の操作がしたいのであれば筋電を取るという手段があるし、家電を遠隔操作するにしてもRFID(無線タグ)など非接触ICチップを腕時計のようなものに仕込めば十分である。実際、彼の研究室でも他のスタッフはスマートカードを持ち歩いているそうだし、同様の批判も多い。現段階での彼のアプリケーションだと、わざわざ埋め込みまでする必要はないからだ。

 だが、ウォーリック教授に言わせれば、スマートカードでいいじゃないかといったような批判は「意味がない」。グラハム・ベルも電話を発明・事業化しようとしたときに同じようなことを言われたではないかと反論する。そして、将来は電話のように、我々は皆、チップを埋め込んで生活するようになる、と語った。

 筆者個人は、電話と埋め込みチップを比べるのはちょっと違うのではないかとも思うのだが、確かに彼が言わんとするところは分からなくてもない。彼からすれば、チップの埋め込みで周囲のデバイスを操作するのは、単なる初めの一歩に過ぎない。

埋め込み手術の様子

 では、彼が本当にしたいことは何か。彼がそもそも健常者であり、ハンディキャップドではないにも関わらず、わざわざ腕を切開して埋め込み実験をしたというところにポイントがある。かなり痛そうな手術である。しかも埋め込みしたあとはしばらくギブスで固めなければならない。

 神経接続インタフェースは義手や人工眼など、基本的に医療や身体障害者向けの研究が主対象となっており、実際に日本国内でも研究が進められている。それらは、あることが健常者に比べて「できない」人が「できる」ようにサポートする技術、という観点が主であって、それによって装着者の能力を拡張したり、強化したりという観点は基本的にない。

 だがウォーリック教授は最初から人間のenhance & augment(機能強化)を目指している。たとえばロボットとの接続は、彼からすれば身体の拡張そのものだ。ロボットは、言うまでもなく電気信号で情報をやりとりしている。神経系も化学的な電気信号で情報をやりとりしている。ならばロボットがセンサーで感じることを、そのまま感じられるようになれば可能性が大きく広がるはずだ。これが彼の考え方なのである。もし神経でダイレクトにセンサー情報を受け取れるようになれば、遠隔地に置いたロボットが触覚センサーで感じることを、あたかも自分自身の感覚のように感じることができるはずではないか、というわけだ。いや、さらに将来には「考えるだけで車を動かせるようになる」かもしれない。

チップを埋め込んだ夫婦。ウォーリック教授が腕につけているのは埋め込みチップと信号をやりとりするリーダー

 また、接続する相手はロボットやセンサーだけではない。ウォーリック教授からすれば人間も、不自由なコミュニケーション手段を取っている動物である。脳で電気信号としてやりとりされている情報を、音声または書き文字など物理的な別の形に変換したあとでないと、他者に伝達できないからだ。人間同士も直接インタラクションできれば――。そういったコンセプトのもと、彼は別の実験を行なった。奥さんにもチップを埋め込んだのだ。

 彼らはお互いに信号刺激をやりとりすることができ、手を握ったり閉じたりする信号をネット経由で送ったところ、ポンポンという刺激を直接腕に感じることができたという。いわば「接続された夫婦」である。面白すぎだ。

 現段階では単なるタップを感じられるだけだ。彼が講演で述べたように「考えるだけでコミュニケーションできるようになる」日はまだまだ遠い先のことだろう。だが彼の実験のポイントは、実際にやってみたらどうだったかというところにある。彼は指の根本から指先へと電気がピリピリと走るような感じだったそうだ。いっぽう奥さんのほうは、指先へとパシーン!と稲妻が走るような感触だったという。埋め込むにしても、「この神経と接続させよう」と狙っているわけではないから、個人差があるのは当然である。なにせ彼が手術を行なった正中神経には1万7千本の神経があるのだ。




■ウォーリック教授の話を聞いて……

 彼の講演を聞いてどう感じたのか、会場内の研究者たちにも話を聞いてみた。
 指輪型キーボード「FingeRing」等で知られるNTTドコモの福本雅朗氏は、かねてよりウェアラブルの次はインプラントだと発言している。質問には、こう答えてくれた。

 「そうですね、カラダにチップを埋め込んだ実物に会うのは初めてですからね(笑)。いろんな見方があると思いますけど。あの人はもともとロボット関係のことをやっていて、ある意味では一番先頭を走ってるわけですね。色んなものを繋いで動かすアプリを見せたけど、あれ自身はよくある話です。他の方法でもできますし、いわば『ありもの』ですから。

 一番大事なのは、やってみたときの自分がどう感じたかとか、神経の可塑性の話とか、そのへんの知見です。剣山電極を刺してるけど、どの程度コンタクトしているのかとか、たとえば腕をぎゅっと握るとどうなるのかとか。そういうのはやってみないと分からないんですよね。だから本当はそこのところをもっと聞きたかった。

 知見単独で言えばドーベルアイとか、他にも有名な研究がある。彼らの目的は障害者のサポートですよね。つまり神経接続インタフェースも、障害者支援とか医療目的では研究されているわけです。逆に、そこに固まってしまっているところがある。それをいろんなところに、一般的なところに引っ張っていけたって点は評価すべきでしょう。

 個人的には剣山電極が一番面白かったですね。筋電じゃなくてニューロンシグナルでやってるというのが分かったし」

大会プログラム委員会委員長であるSONY CSLの暦本純一氏

 大会プログラム委員会委員長でもあるSONY CSLの暦本純一氏は、ウォーリック教授を招待した本人である。以前から交流があったわけではなかったという。

 「個人的にはぜんぜん知らなかったんですよ。でも彼がやってることはよく知っていて、取りあえず会ってみたかったというのが呼んだ動機です。本当に埋めてるんだったら見せてくれと思うじゃないですか」

 では、実際に見たらどうだったのか。

 「テクノロジー的にはそんなでもないですけど、自分を人体実験にしているところと、本当に傷を見せられると、『ああ……』という感じですね。現状の奴だと、表にRFタグを入れた腕時計をすればできるだろうってことになるでしょうね。でも彼の考えていることは、本当に『サイボーグ』なんですよね。考えていることがそのまま映像として伝送されるとか、そういうところを目標としている。だからあれがファーストステップなんですよ。最後の人間同士のコミュニケーション、自分でこうやると向こうの人にタップが伝達されるとか。ああいうのに発展性を感じますね。

 また、彼のやってる方向性っていうのは、誰でもやる可能性があることなんですよ。普通の人を違う方向にエンハンスする、例えばストリーミングを生で受け取っている人が出てきたらどうなるかといったことを彼は考えているわけですね。そこが面白い。通信の話がいろいろ広がってくると、もっといろんなアプリが考えられるんじゃないかなと思います。

 また、生の神経のデータを電送していると、そのうち相手の神経も学習してくるでしょう。そのうち相手の脳と自分の脳が、いわばwireされるわけですよね。だからコンピュータがジェスチャー認識をするといった話ではなくて、人間同士を接続する新しい形態になるかもしれない。そうなっていくとどうなるか。そういう『違う世界』が垣間見えたような気がします」

 暦本氏はAugumented Realityや実世界指向インタフェースで有名だ。暦本氏自身が実験をやってみる気はないのか、と尋ねてみると、「うーん。そうですね。まず、うちの奥さんはやらないですよ(笑)」と返事がかえってきた。

 そりゃそうだろう。やらないほうが普通である。また、「あの研究室、あの先生がいないと実験が進まないんじゃないかな」とも。なにせ本人が実験対象なんだから、確かにそのとおりかもしれない。

 本連載の第2回に登場してもらった玉川大学の椎尾一郎教授は、インタラクション2003の副委員長でもある。椎尾教授は開口一番、「痛そうでしたね」と笑った。

 「あれで何が嬉しいのかという話がなかなか難しいですよね。でも、本当にカラダ張ってやってるのは凄いなと思いましたね。痛そうだったし。痛くなければいいけど痛いのは嫌ですね(笑)。

 埋め込むか? やっぱり『トレードオフ』だと思うんですよね。計算機のパワーを接続することで、もの凄く賢くなるとか、人にないパワーがつくとかならやってもいいかな(笑)。ただ、これからは、なんかのついでにやるっていうことはあるかもしれませんね。盲腸の手術のついでにチップを埋め込んでおくとか、歯の治療のついでにチップを埋め込んでおくとか。そういうのはあるような気もします。

 たとえば今のペースメーカーにはコンピュータがついているでしょう。それに何かハードディスクを付けるといった話はあり得るのかもしれません。医療の現場で『どうせ体を開けるから何かをやってあげよう』というのは、将来はあり得るのかもしれない。

 でもやっぱり見返りかな。あれだけ痛い目をして、車いすが動くだけっていうのはちょっと哀しいですね。でも、最後の奥さんとのコミュニケーション、あの話は知ってましたが、実際に話を聞くと、やっぱりびっくりしますよね。普通ああいうことは、考えないですよね」

翌日、教授はデアゴスティーニから創刊された「週刊リアルロボット」の記者会見に登場。「週刊リアルロボット」には彼の研究室で開発されたロボット「サイボット」がつくのだ(全60号だが、ロボットそのものは取りあえず17号で完成する)。 チップを埋め込んでいた左腕を見せてにっこり

 その他の人にもコメントを求めたが、だいたい上記3者が語ってくれたことに尽きると思う。筆者個人もほぼ同感で、確かに彼が今やってること自体はたいしたことではない。だが「実際にやってみた」という点は評価すべきだし、彼のベクトルは人間の新しい可能性を開くものだ。また今後は、何かのついでに人体にチップやコンピュータを埋め込むようになる可能性は高い。

 現時点では彼のことを単なるトリックスターだと思っている人も多い。
 数十年後、彼の評価がどうなっているか――。それは人類の将来そのものが、どうなっているかによるのかもしれない。

 さて、ではインタラクション2003そのもののレポートを始めたいと思う。



■インタラクション2003 1日目

 インタラクションは2日にわたって行なわれ、それぞれ別々のデモが披露される。口では説明しづらいが実際に見れば一目瞭然というものばかりなので、主に写真で紹介していこう。

「ウェアラブルの伝道師」という異名を持つ大阪大学・塚本助教授が、パワーアップした風体で昼休みに登場。今回、塚本グループの展示はなかったが、ご本人自らが展示と言えるのかも…… 静岡大による「マルチモーダルセンシング技術を用いた格闘技解析に関する実験」。昇竜拳(笑)を放ったときのデータを腕につけたセンサで取得。今回、静岡大は数多くのデモ・ポスターを披露。大いに目立っていた ユビキタス情報場でのコミュニケーション活性化を目指した研究(静岡大)。ユビキタスな環境で、うなずき情報などを取ることのできるウェアラブル機器をつけた時のコミュニケーションについて考察

顔アイコン(SONY CSL)。顔アイコンにファイルをドラッグ&ドロップするだけでメールすることができるソフト。顔アイコンそのものをクリックすると、簡単なメッセージを送ることができる 慶応大の「Secure Sence」。セキュリティ情報を照明で提示。不正なアクセスが多くなると上のほうで赤い光が点る 実世界インタラクションのためのミラーインタフェース(NTT)。自己像、実画像を表示。実物体にはそれぞれIRタグが付けられており位置が計測される。画面上で実物体にアクセスし、操作することができる

illusion Hole(大阪大)。モーショントラッカーで位置を計測できる偏向眼鏡をかけると、3Dの虚像(立体映像)を複数人が、それぞれ別々の方向からの視点で眺めることができる。実際にはそれぞれ別の場所に描画されているのだが、他人の描画領域はマスクされて見えない。画像は「緒方洪庵の薬箱」 本連載第2回で登場の玉川大・椎尾教授はStrata Drawer、Peek A Drawerを披露。大人気だった

RFIDを付けたコマと同時多入力可能なセンシングボード、プロジェクターを組み合わせたアプリの一つで、これは都市計画を模したもの(東大)。実物を使うシムシティのようなものだが、こちらはインフラの様子まではシムされているわけではないのはご愛敬か。ゲームとしては楽しそう 高速カメラを使った仮想楽器システム(農工大)。これはヴァーチャル木琴。メガピクセル単位の高空間解像度とkHzオーダーでキャプチャーできるようになって実現。高速なのでタイムラグが全くなく音が出る

画像認識による仮想カメラ制御(九州産業大)。腕を動かしたり、体を動かすことで、3D画像を回転させたりすることができる。アバターは操作者の動きを追従する ほっと一息できるメディアアート、リップルメーカー(多摩美)。波紋を発生させ、その様子を見て安らぐ……



■インタラクション2003 2日目

動画のサムネイルを自動で作ってくれるビデオブラウザ(東京工科大)。サムネイルをクリックすると、サムネイルの大きさのままでも再生してくれる VelvetPath(SONY CSL)。自由なストロークでオブジェクトを関連づけることができる。3Dで回転させることも可能。直感的なインタフェースは楽しい ウェアラブルを使った楽器演奏支援(静岡大)。シースルーHMDに教材画面が表示されるので、それを見ながら楽器演奏を学ぶことができるというもの

Enlight-Pen(慶応大)。CAIにおいて、頑張って課題をクリアしていくとライトがつくペン。自分自身のやる気喚起だけではなく、複数の人が使っていると、ペンを見ただけでどの程度頑張っているかが分かるため、意外とゲーム感覚で盛り上がるらしい 天気予報を人形やボールで表示するウェザブル君(NTTコムウェア)。ネットから情報を引っ張ってくるため遅いのが難点か アノテーションを活用した共同作業支援システム(富士ゼロックス)。共同校正作業用。文書・アノテーション用サーバーとクライアントから構成され、ゲラに赤を入れた人それぞれの履歴をバラバラに表示したりできる。しかもアノテーション部分の文字列で文書データベースを自動検索、関連情報を表示。ゲラをやりとりしている出版関係者ならいますぐでも欲しいソフトかも

“ピアニスト”を演奏するインタフェースpunin(関西学院大)。見れば分かるがテルミンのピアニスト版である。あたかもピアニストを指揮しているようにテンポやピッチを変えつつ演奏させることができる。勘所はどの程度「指揮を見る」べきか調節できるところ Stick-on Communicator(NTT)。遠隔地のモノにさわることができるという触れ込みだが、要は物体・人にIRタグが付けられており、それをカメラで撮ることで遠隔地から属性情報を表示させたり、ちょっとした操作ができるというもの

ぱらぱらウィンドウ(NTTデータ)。フットペダルやハンドルなどで、何重にも重なったウィンドウをパラパラめくるように消していける。逆方向に戻すと元へ戻る。一発ネタのようだが、意外と実用性があるかも 腕時計型生体センサLifeMinder(東芝)。脈、体温、加速度などを取ることで、食事を食べているかどうかなどを認識することができる。指先にもセンサを付けなければいけないのが難点だとか。連動するモバイル端末には摂取カロリーや基礎代謝など健康アドバイス情報などが表示される サビ出し機能付き音楽視聴機「Smart Music KIOSK」(さきがけ21/産総研)。今回のベストペーパー賞受賞論文。機能は名前そのままサビ出しである

道具メタファを利用した実世界指向インタフェース「Tool Device」(阪大)。タッチディスプレイ上の情報を、ピンセットやスポイト、おたまなどで「すくい」、移すことができる。「掴んだ」情報の量に応じてデバイス側では内部のモーター電圧が変化、重み感覚や堅さなどがフィードバックされる。またスポイトでは新しい情報は暖かく、古い情報は冷たく感じられる。ベストインタラクティブ賞受賞 ウェアラブルセンサによって看護業務を自動行動計測するシステム(ATR)。看護士の労働データを丸ごと記録する。看護支援機能はなく、単に記録するだけである。好きこのんでそんなものをつけたがる人がいるとは思えないのだが……

個人向けナビゲーションシステム(日立)。カードをカメラにかざすことで、足元に行く先方向が表示されるシステムと、建物内などでの個人案内システム 個人情報とある程度共有する情報を共存表示する「Shared Hole(阪大)」。近くにいる人同士だといろんな情報が見えるが、離れると見えない。またそれぞれ階層を与えることで、ある人には見えるが別の人には見せないといった設定もできる。でも何に使えるかは?

平面リニア誘導モーターを利用、磁力で力覚提示するデスクトップ「Proactive Desk」(ATR)。従来型のGUIに触覚を与えることができ、また、力を与えることでユーザーを望みの方向にナビゲートすることもできる。ベストインタラクティブ賞受賞



インタラクション2003会場でのデモの様子

 以上、駆け足ではあるがざっと紹介した。なおインタラクションは当然のことながら、デモだけではなく、論文発表もある。また、このレポートでは「絵になりやすい」ものを選んで紹介したことをお断りしておく。今回のインタラクションでは80を超えるデモ・ポスターセッションが行なわれた。当然、絵にはならないが興味深いものもあった。

 ただ、筆者の個人的感想だが、今年は昨年に比べると今ひとつ面白くないなと感じてしまった。「ユビキタス」が流行語になり、企業でもかなり積極的に取り組まれている現状、いくつかのデモや論文発表は、単なる研究者達の「お遊び」にしか感じられなかった。

 もちろん、多少の遊びは結構だ。そこから新しいものが生まれてくることもあるだろう。ただし、それが許される存在として研究者達があり続けたいのであれば、研究者達はもっと勉強しなければならない。「それは○○と同じじゃないか、どこが違うのか」と問われたとき、「それ、なんですか」と言っているようでは困る。今年の展示ならびに論文発表のいくつかには、研究者達の勉強不足が感じられた。

 また発想も、やや貧弱なものが多かったように思う。研究者ならば、もっと発想の羽を広げて、これは何の役に立つのかといったような質問を差し挟む余地すらないような、凄いもの、あっけに取られるようなものを作りだして欲しいと思うのである。今年はアートがやりたいのか実用的なアプリの提案がやりたいのか単に技術的デモなのか、いずれにおいてもエッジが立ってない、どうにも中途半端なものが多かった。そのため、“インタラクション”全体に甘い印象を覚えてしまったのである。見物に行なった素人の感想に過ぎないが。

 研究者達も考え方はバラバラだ。だからこそ“インタラクション”が必要だし、そこから新しいものが生まれてくる。私は“インタラクション”のワイワイガヤガヤした雰囲気が大好きだ。これからも、研究者たちの知的なセッションを期待したい。

□インタラクション2003
http://hands.ei.tuat.ac.jp/Interaction2003/
□Professor Kevin Warwick : Professor of Cybernetics University of Reading
http://www.kevinwarwick.org/
□著者による「神経接続インターフェイス」関連インタビュー掲載ページ
http://www.moriyama.com/netscience/Shimojo_Makoto/index.html

バックナンバー

(2003年3月6日)

[Reported by 森山和道]


【PC Watchホームページ】


PC Watch編集部 pc-watch-info@impress.co.jp 個別にご回答することはいたしかねます。

Copyright (c) 2003 Impress Corporation All rights reserved.