ニュース

AI/通信など最先端研究公開の「けいはんなR&Dフェア2022」。自動同時通訳はZoomでも体験可

 「けいはんな学研都市」の研究機関・企業・大学等による、AI、通信、ロボット、デバイス、化学などの研究成果が2022年10月6日~7日、「けいはんなR&Dフェア2022」(NICTオープンハウス2022 in けいはんな、ATRオープンハウス2022)として公開される。

 地域連携イベントとして、けいはんな(京都、大阪、奈良)地区および近隣地域に立地の企業や大学、公的機関から、合計40件の研究発表や事業紹介が行なわれる。また「oVice(オービス)」というバーチャルコミュニケーションツールで、アバターを使ったバーチャル訪問や質疑応答も可能だ。公式ページはこちら

 公開に先立つ10月4日には、国立研究開発法人 情報通信研究機構(NICT)、株式会社 国際電気通信基礎技術研究所(ATR)、国立研究開発法人 理化学研究所(理研)の3者による共同記者会見が開かれ、イベントの見所が紹介された。

バーチャルコミュニケーションツール「oVice(オービス)」を使った見学も可能

スマホ依存から体内デジタルツインまで。ATRはハイブリッド形式で展示

 ATRは、リアルとライブ配信を組み合わせたハイブリッド形式でオープンハウスを行なう。3年ぶりのリアル開催として5件の講演や70件の展示デモが行なわれるほか、脳情報通信総合研究所の川人光男所長による「内部モデルから因果的神経科学へ」と題された記念講演なども行なわれる。公式サイトはこちら

 研究開発では脳情報、深層インタラクション、無線・通信、生命科学の展示、またセンシング技術に関する事業展示や特別企画展示などが行なわれる。

 たとえば研究分野では、スマホ依存には積極的に操作する「熱中型」と、理由もなくさわってしまう「だらだら型」があること定量的に示す研究、簡素なインターフェイスであっても全方位カメラを使うことで、アバターロボット操作時に高い主観感・臨場感を感じさせ、仕事をした充実感を得られるようにするための研究のほか、可動域制限や断線故障のないワイヤーフリーロボット実現を目指す無線電力伝送・無線通信技術、人体内にナノマシンを導入して体内精密状態をリアルタイムで可視化し、モデルを使って状態変化を予測・診断、さらに必要に応じて異変の修復を行なうことを目指す「体内精密情報デジタルツインシステム」などが紹介される。「体内精密情報デジタルツインシステム」は2035年にヒトへの実装を目指しているという。

スマホ依存には熱中型とダラダラ型の2種類がある
ロボット操作の臨場感があることで仕事のやりがいも感じやすくなる
ワイヤーフリーロボット実現を目指す無線電力伝送・無線通信技術
ナノマシンを使った体内精密情報デジタルツインシステム

 ATR-Promotionからは同社が開発中の小型無線多機能センサーを使って、人の歩容(歩行パターン)を計測して怪我防止や治療効果の定量的評価などを行なう技術が紹介される。この技術は転倒事故防止をねらうWalk-Mate Labや膝痛の診断や予後判定を行なうiMUなどスタートアップのほか、モーグル選手の腰の回旋といったスポーツ解析にも使われているという。

 このほか、ATRと京大が連携して進めている「電波COE研究開発プログラム」からは、無線技術の人材育成をテーマにしたセッションや、大型電波暗室の見学ツアーなどが行なわれる。機械学習を使ったネットワーク制御や今後のIoTネットワークなどの研究が紹介されるという。

ATR-Promotionの小型無線多機能センサー
電波技術の人材育成を目指す「電波COE研究開発プログラム」の紹介

主体性を持って適切に情報を取捨選択できるロボットの実現を目指す理研GRP

 ATR西棟3Fでは、理化学研究所情報統合本部「ガーディアンロボットプロジェクト(GRP)」の活動状況が紹介される。ガーディアンロボットプロジェクトとは、対話型や自律型などさまざまなタイプのロボットを使って人をさりげなく支援する自律的なロボット研究開発プロジェクト。ロボットのデモのほか技術講演が行なわれる。

 公開されるロボットは「Nikola(ニコラ)」、「ぶつくさ君1号・2号」、「外骨格ロボットと椅子型支援機器」。

 Nikolaは人間とのインタラクションに用いられる対話型ロボットプラットフォームで、アンドロイドの頭部だけのロボットだ。表情筋は32自由度、首は3自由度となっていて、状況に応じた表情表出や対話生成が可能。たとえば頭を叩かれると「痛い」という表情をする。ロボットの個性を作るための視線動作生成などの研究も進めている。同じ視線動作であってもパラメータを変えると、外交的・内向的の程度が変わって感じるという。

対話型ロボットプラットフォームのNikola(ニコラ)
32自由度の表情筋アクチュエータでさまざまな表情を作れる

 ぶつくさ君は外界認識、複数話者の音声認識、自己位置推定と移動などの機能を持つプラットフォームで、デモでは過去の記憶に基づいて、「コップはどこにあるの?」と聞かれたら「コップはテーブルの近くにあったよ」といった受け答えや、探し物をしてくれる。人が意地悪をしてモノを隠しても、探しに行くことができる。日常空間の中でのロボットの動作が、どうすれば自然に見えるかを研究している。被験者にインターネット経由で評価してもらったところ、しゃべりすぎるよりも対話量を減らしたほうが好印象であることが分かったという。

 外骨格ロボットと椅子型支援機器はアシストロボット。人間の動作意図や環境を認識する技術を使って、立ち上がりなどの日常的な運動・認知の支援を行なう。必要な時に必要な支援を行なうことで、人が達成感を感じるさりげないアシストが可能だという。アシストロボットはカーボンフレームと空気圧人工筋肉で軽量にできている。

移動・対話可能な自律ロボットのぶつくさ君
人をさりげなく支える外骨格ロボットと椅子型支援機器

 ガーディアンロボットプロジェクトでは、「ロボットと人が共存する未来社会」を目指している。人間と共存するためには「一人称的主体」を持った自律的なロボットの構築が必要だと考えて、そのためには入力データを選択的に処理し、さらにロボットの動きや言語行動に論理的一貫性があることが必要だとし、今後、プラットフォームであるぶつくさ君に主体性やユーザー理解、適切かつ必要十分なユーザーへの応答の実装を行なっていく。

理研ガーディアンロボットプロジェクトは主体性と一貫性を持つロボット開発を目指す

誰もが分かりあえるユニバーサルコミュニケーションを目指すNICT

同時通訳のデモを誰でも体験可能

 NICTからは「Web会議システムを使った同時通訳体験」などが出展される。異なる言語間であっても、スムーズにコミュニケーションできるようにすることを目指したシステムだ。体験者は日本語で発話し、対話相手の英語発話を日本語字幕と、肉声に近い音声合成による日本語音声で確認できる。NICTが開発している「文分割技術」を活用することで、少し遅れはあるが連続した同時通訳が可能になった。Zoomによる参加のほか、ATRオープンハウスサテライト会場で実際の体験も可能だ。

Web会議システムを使った同時通訳体験の仕組み
10月6日~7日は、こちらのURLから誰でも同時通訳体験に参加可能

 また「場所によって異なる音を提示可能な小型スピーカーによる音声マルチスポット再生システム」では、音場制御技術(音が聞こえる場所と聞こえない場所を多くのスピーカーを使って発生させる技術)により、場所によって異なる音を提示してくれる。それを、直径14cmの16チャネル小型円形スピーカーで実現した。これを多言語音声翻訳システムと組み合わせることで、異なる母語の人が、それぞれの翻訳結果をそれぞれの言語で同時に聞き取ることができるようになる。現在は4言語音声マルチスポット再生が可能だという。

音声マルチスポット再生技術 (ロングバージョン) [NICT]

 3Dアバターの構築・再現技術「REXR(Realistic and EXressive SD avataR、レクサー)」も紹介される。本人のアバターを構築し、表情や動作を細やかに再現できる。複数のカメラや特殊なセンサーは必要なく、Webカメラ1台の映像だけから構築でき、表情の変化や顔の動きなども反映される。2D映像を入力として、3Dのバーチャル空間に、あたかもその場で話しているかのような状態を再現できる。今後は3Dアバターの精度向上や処理速度向上によって、複数の人たちの間で一体感が感じられる遠隔コミュニケーションの実現を目指す。

3Dアバターの構築・再現技術であるREXR

 機械翻訳をより安全に活用できるようにするための誤訳発見技術も展示される。外国語が分からない人に対しても誤っていると思われる場所を示すことができる。原文を人手で修正して正しい翻訳を得やすくしたり、日本語を直すことも簡単にできるようになる。技術的には、対訳データから擬似的な誤訳を生成して学習させることで実現した。さらに高精度化のために、文単位品質尺度の埋め込みと注意機構を組み合わせている。

自動翻訳の誤訳発見技術。擬似的な誤訳を生成して学習させることで実現した

 高齢者介護支援マルチモーダルシステムとして音声対話システム「MICSUS(Multimodal Interactive Care SUpport System、ミクサス)」も出展される。高齢者の健康や生活習慣のチェックの一部をAIで代替したり、AIとの雑談で高齢者のコミュニケーション不足を補うことを目指す。音声認識の誤りがあっても頑健に動作できる言語モデルを使うことで、意味解釈を高精度で実行。たとえば遠回しな回答であっても対話が継続でき、雑談も可能だという。

 以前から開発されているものだが、今回は2022年6月~9月に行なわれた36名分258セッションの実験結果が公開される。正解率はYes/No質問の結果が93%、自由回答質問では83%で、雑談の9割が適切と判断され、54.9%で高齢者の積極的応答が見られたとのこと。高齢者アンケートでは5段階評価で平均4.3だった。

高齢者介護支援マルチモーダルシステム「MICSUS」
高精度な意味解釈が可能な対話モデルを実装

 マルチメディアセンシングデータを用いた複雑事象を予測するAIモデルでは、共通の潜在表現や相関を高精度に学習・予測させることができる。データノイズや欠損にも強く、交通リスクの発見などが可能だという。また交通公害対策にも用いることが可能だという。

複雑事象予測AIモデル。交通リスクの予測などに応用可能

高セキュリティな印鑑や電子カルテ時系列可視化システムも

兵庫県立大学と京都大学は「高セキュリティなプラズモニック印鑑の創製とクラウド認証の研究開発」

 兵庫県立大学と京都大学は「高セキュリティなプラズモニック印鑑の創製とクラウド認証の研究開発」を出展する。目では見えない「ナノタグ」とレーザー、クラウド認証を使って、偽造品を防止する。

 奈良先端科学技術大学院大学は、電子カルテ時系列可視化システム「HeaRT」を出展する。フリーテキストに含まれる治療経緯に関する時系列情報を自然言語処理技術を使って、病名や薬品名などを抽出し、時間表現と紐づけて、実際の治療経緯をタイムライン形式で分かりやすく表示できるように変換する。

HeaRT Demo JaJP