森山和道の「ヒトと機械の境界面」

目指すコンセプトは「AI妖怪」? 電通大、汎用人工知能研究拠点「AIX」キックオフ・シンポジウムを開催

 国立大学法人電気通信大学(電通大)は2017年3月16日、お台場のパナソニックセンター東京にて、「人工知能先端研究センターキックオフシンポジウム 誰のためのAI?」を開催した。

 「人工知能先端研究センター(Artificial Intelligence eXploration Research Center、AIX)」は国立大学初のAI研究センターとして2016年7月1日付で設立された。「人と共生する汎用人工知能」の実現を目指しており、「AI for Science」、「AI for Service」、「AI for Design」を三本柱としている。

目指すコンセプトは「AI妖怪」

 電気通信大学学長の福田喬氏はビデオで登場。「AI for X とした理由は、分野融合による汎用人工知能実現を主眼としているため」と開会挨拶した。

 続けて電気通信大学大学院 情報理工学研究科教授で、AIXセンター長の栗原 聡氏が研究拠点を紹介した。認知アーキテクチャ、自然言語処理、画像・音声認識、ロボティクス、機械学習、ビッグデータやIoT、AR・VRなどの技術を結集して汎用人工知能開発を目指すという。

電気通信大学学長 福田喬氏
電気通信大学大学院 情報理工学研究科教授、AIXセンター長 栗原 聡氏

 昨年(2016年)はダートマス会議で人工知能という言葉が使われて60年目だった。そして人工知能研究が一気に盛り上がった年でもある。欧米のITジャイアントによる研究発表が続き、日本国内でも危機感を持って、産官学による研究拠点立ち上げも始まっている。

 だが人もお金も足りないのが現状だ。特に多様性が必要だという。欧米に対して勝つための活路を見出すには、それぞれ違う出自を持った人たちが、ゆるく繋がることが重要であり、汎用人工知能という言葉を鍵かつ主軸に据えて、拠点を立ち上げたと振り返った。

汎用AIを目指す
三本柱は「AI for Science」、「AI for Service」、「AI for Design」

 ではどんな人工知能を目指すのか。扱いきれない情報を扱うのではなく、生活環境に入り込んでくる部分で活動するAIを目指すという。人の理解度に応じてヒントを与えてくれたり、能動的に人に対してアドバイスをくれる、場の空気を読んでくれるようなAIだ。

 立ち上げメンバーは18人。企業との連携も積極的に進めていく。AIXでは各企業から若手の研究者たちを客員研究員として滞在させて研究を行なっていくことを目指す。立ち上げた段階では6社と連携しており、現在では8社と協定を結んで、徐々に研究を進めようとしている。外部顧問は7人。

 AIXが目指すのは、普段は見えないが、VRやAR、MR機器を通じれば見られる、IoTなどを使ってさりげなく人を助けてくれるAIだ。これと、電通大は水木しげる氏のお膝元である調布にあることから、「AI妖怪(YokAI)」なる汎用人工知能を目指していくと栗原氏はコンセプトを表現した。

 4月には大学図書館の1つのフロア全体に対してセンサーを埋め込み、ロボットやAIが議論活性化やアクティブラーニングなどの支援を行なう実験環境「Ambient Intelligence Agora」を立ち上げるという。

コンセプトは「妖怪」の実現
ホロレンズをつけているのは福田学長
実験環境「Ambient Intelligence Agora」

基調講演「ココロ=人工物の心もどき」を作って「心」を理解する

大阪大学大学院工学研究科教授 浅田稔氏

 基調講演は認知発達ロボティクスの第一人者であり、AIX顧問でもある大阪大学大学院工学研究科教授の浅田稔氏。浅田氏は「学際・融合からAI超域へ : 構成的発達科学への挑戦」と題して、「人工知能から人工共感、そして人工意識に繋がる構成的発達科学の試み」について講演した。

 浅田教授は赤ちゃんの発達研究、ロボットを使った発達過程の理解、ダヴィンチを再現した遠隔操作アンドロイドロボットの製作など、幅広い活躍で知られる。科学技術芸術すべてをおさえることでロボットができるという気持ちをこめてダヴィンチの再現を行なったという。

 浅田氏は自律ロボットによるサッカー対戦競技「ロボカップ」の参加チームの変遷や現状を示した。のちにアマゾンロボティクスへとつながった技術は、ロボカップに由来がある。アマゾンはさらにピッキングチャレンジというロボコンをやっている。ロボカップではサッカーだけではなく、「@home」という家庭や公共環境で活動するためのロボット競技も行なわれており、トヨタのHSRとソフトバンクのPepperが、スタンダードプラットフォームとして2017年から採用されている。サッカーで培った技術をいかに民生用に使うかがポイントだ。

ロボカップから生まれた物流ロボット
amazon picking challenge

 NEDOは、2020年以降、サービスロボットの性能が伸びて市場が成長するとしている。サービスロボットにおいても要素技術が汎用化しており、認識技術が向上し、データ通信も高速化した。そして社会的な受け入れ準備も整いつつある。

 サービスロボットには色々な種類がある。コミュニケーションロボットはその1つで、一言で言えばスマートフォンの延長のような機能を持つが、まだ技術が足りない。さまざまな先端技術開発はが進行中で、センサーやモーターも発展している。ロボットハンドもよくなっている。市場にはさまざまな産業から新プレーヤーも入ってきており、世界規模で成長しようとしているという見解を示した。

サービスロボットの分類
コミュニケーションロボットの機能

 では人工知能はどうなるのか。最近になって、だいぶ使えるようになってきたと浅田氏は語った。

 話題の深層学習(ディープラーニング)については、もともとは日本の研究者の貢献が大きかったものの存在感を出すことができなかった。深層学習は画像のキャプションをつけることもできるようになっている。言語から画像を作ることも限定的にはできるようになっている。膨大なデータと処理速読向上のおかげだ。

 現在の流れの中で欠落しているのは、共生社会において必要な心的機能の実現だという。浅田教授は、量ではなく、質の問題を扱うべきだと述べた。量の変化が質の変化にかわるかは自明ではないからだ。

 では、ロボットの心とはなんだろうか。浅田教授は、他人の心の状態を推定するために人が持っていると考えられている機能「心の理論」について触れた。4歳くらいまでは「心の理論」が未完成で、他者の立場に立つことができないと言われている。「ココロ=人工物の心もどき」を作ることで、発達や心の仕組みを探ろうというのが浅田教授の研究だ。

心の理論
ロボットのココロ

 人間の発達とは何か。人間の胎児は生まれる前から学習が始まり、生まれたあとももちろん多くの学習を経て発達していく。その過程で自分の身体の動かし方や感覚統合、内的シミュレーションを実行していき、わずか1年程度で非常に多くのことを学ぶ。これをロボットで再現しようとした場合、どこまで埋め込んでどこから発達させるかは判断が難しい。

 「身体性」は、主観と客観の世界を結びつけるメディアだという。浅田教授らは、年齢・月齢ごとにロボットを作り、発達を探る研究を行なってきた。一番のコアの問題は、ロボットが「自己」を持つために何が必要かだ。構成的発達科学という枠組みで探っている。共感・同情の発達は模倣や自他認識の増強とも並行しており、そこから段階的な共感発達モデルが考えられるという。

発達月齢に応じたロボットプラットフォームを作って研究を行なっている
自他認知の発達

 脳の神経の結線を調べる「コネクトーム」と呼ばれる研究がある。神経系のふるまいのシミュレーションを行なうと、脳波のような活動が現れるという。今は隠れ層をつけ加えることで、よりリアルな活動を見ることができる。実際に動かしてみると自発的な構造が出てきて、解剖学的なネットワークとは違う情報構造が出てくる。

 また、特定の筋骨格系を持った生物の神経活動をシミュレーションすると、解剖学的構造が反映されて特定の活動パターンが出てくる。通常の歩行のときと非常に意識的な足運びをしているような状態では異なる状態が観測される。もしかしたらこれが意識と無意識を示しているのかもしれない。

 意識に関しては最近、ジュリオ・トノーニによる「統合情報理論」が提唱する「φ」という量での意識の計測が話題になっている。定量化できれば不安定時の運動と安定時の運動との情報量の差や、各機能の分散や多様性についても興味深いことがわかるかもしれない。

非線形振動子ネットワークと筋骨格構造を組み合わせたシミュレーションから生まれる情報構造を探る
意識の情報量量を計測できるかもしれない

 大阪大学大学院工学研究科准教授の長井志江氏は、「鏡のテスト」などが示す認知機能の多様性と発達時期に見られる矛盾を、予測誤差最小化を規範とする認知過程を仮説として解こうとしている。

 見かけ上、発達時期における矛盾と思われるものは、自他認知や模倣、援助行動なども自分の運動誤差を他者に当てはめていると考えることで理解できるのではないかという。まず自分の運動を学習する。他者の運動を見たときに、自分の運動を生成した経験があることによって、視覚情報だけでは構造化できない運動も構造化できるという。これをミラーニューロンシステムと呼んでいる。構成論的手法でロボットに実装することで主観的な認知過程を客観的・定量的に評価できる。

 さらにこれを発達障碍者支援にも役立てることができる。大きな音を立てると人の姿がぼやけたり、砂嵐のようなものが見えたりする自閉スペクトラム症の患者特有の見え方を疑似体験するシステムを構築し、なぜそういうことが起きるのかメカニズムを探っている。

認知機能の多様性と発達時期に見られる矛盾
予測誤差最小化仮説
運動生成経験の有無による予測精度の違い
CREST 認知ミラーリングが進行中

 また同一の部屋に2台のMEGを同期させられるMEGハイパースキャニングシステムを使って、赤ちゃんとお母さんの脳を同時に計測できるシステムを構築しており、お母さんと子供がどのように視聴覚コミュニケーションをとっているかも探っている。身体認知機能の発達過程もfMRIを使って探求中だ。人との親密なふれあいにむけたアンドロイドの高機能化も行なっている。

 最後に浅田教授は「多分野協働から各分野がクロスする超分野が重要。そのためにも本当の意味での省庁連携が重要。せめて2省連携を進めてほしい」と述べた。

MEGハイパースキャニングシステム
アンドロイドの高機能化
省庁連携を呼びかけた
まとめのスライド

ゲームAIから見る人と機械の新しい関係とは

電気通信大学大学院 情報理工学部 情報・通信工学科 助教 伊藤毅志氏

 AIXの研究紹介は3者が行なった。まず、将棋AIや羽生善治氏に関する認知科学的な研究等で知られる情報理工学部 情報・通信工学科 助教の伊藤毅志氏が「人を超えるゲームAI 人と機械の新しい関係」と題して講演した。

 はじめに伊藤氏は「AlphaGo」の登場と勝ち越し、そして改良版の「Master」の連勝は衝撃的だったと語った。将棋や囲碁は情報学的には「2人完全情報確定ゼロ和ゲーム」と呼ばれる。これを「ゲーム木」で捉え、終局まで調べ尽くせばゲームを解いたことになる。囲碁はもっとも複雑とされていたが、それだけにAlphaGoは衝撃だった。

 研究対象としてのゲームには、人間にとって馴染みやすく、問題解決や記憶など知的認知過程の宝庫であり、アルゴリズムの改良が勝敗がつくというかたちで結果がはっきりわかるという3つのメリットがあるという。伊藤氏はゲームAI研究の歴史を、いくつかの逸話を紹介しながら概観した。

 コンピュータ将棋は評価関数とミニマックス探索という手法で手を探している。2005年に公開された保木邦仁氏の「Bonanza(ボナンザ)」以前は手作業で評価関数を作っていたが、ボナンザ以降、機械学習で評価関数を作るのが主流になり、ソフトウェアは一気に強くなった。

コンピュータ将棋の基本構造
ポイントは評価関数の設計

 囲碁は盤面が広く、ルール上選べる手が多く、探索が難しい。また石の強さの評価が困難で、評価関数の設計が難しかった。人間の場合も初心者とベテランの視線の動きを見ると、将棋では熟達者は注目すべきところ場所だけを見るようになるが、囲碁では熟達すると局面全体を見るようになる。局面から得られる情報において、将棋と囲碁には根本的な違いがあることがコンピュータ囲碁と将棋の違いにもあったという。

認知から見た将棋と囲碁の違い。将棋は熟達者は一部分だけを見て全体はあまり見ないが、囲碁は逆

 コンピュータ囲碁はモンテカルロ法の採用によって2006年に突然強くなった。まだ10年くらいかかると言われていたのが、ディープラーニングで一気に強くなってしまい、10年が1年に縮まった。

 実は良質のシミュレーションを行なうと強くなるということは知られていた。では質を上げるためにどうすればいいか。プロ棋士の棋譜データとするディープラーニングを行なうことで手の予測器の性能を向上するという研究は2014年ごろから発表されており、あとで振り返るとそれが予兆だったという。教師あり学習と強化学習を組み合わせたAlphaGoは予測器と評価関数に近いものを作ることでプロ棋士レベルを達成した。

AlphaGoの技術の概要

 伊藤氏は、人の能力を超えるソフトウェアがすでに登場したゲームAIの世界は、技術的特異点を考える好例だと語った。ゲームAIの世界では人と協調、共存していくスタイルや人に寄り添うスタイルがすでに登場している。人に寄り添うゲームAIの例としては、学習者向けに未来局面をヒントとして提示する機能などが考えられるという。

ゲームAIは「人を超えるAI」との関係を考える好例
AIが未来局面を示すといったアイデアも

理解とは予測、ロボットはAIの単なる身体ではない

電気通信大学大学院 情報理工学研究科 知能機械工学専攻 教授 長井隆行氏

 柔軟な知能ロボットの研究開発を行なっている情報理工学研究科知能機械工学専攻教授の長井隆行氏は「ロボットのためのAI? AIのためのロボット?」と題して講演した。

 研究テーマは、いかにロボットが人と共存し、ともに良い世界を作るか。人工知能はロボットのような人工物が実環境でよりよく生きるための仕組みそのものであり、単にロボットにAIを搭載すれば賢くふるまうようになるといったものではなく、AIとロボットは常に一体であり、切り離すことができないと考えているという。

 長井教授は「AIのシンボルグラウンディング(記号接地)問題は、シンボルを実世界と切り離したところから生じる不良設定問題にすぎない」と切り捨てた。シンボルは、身体と知能を不可分なものと考えて環境とのインタラクションから作られるものだという。

 とっかかりとして、言葉を理解するとはどういうことかと問いかけた。言葉の意味として必ず正しいものが辞書に記載されているように存在していて、それをみんなが使っているという考え方は間違っているという。

 では意味が明示的にはわからないのに理解しているとはどういうことか。それを工学的に解いて、人間のように理解するものをつくりたいと述べて、意味とは何か、理解とは何かを考えるとした。

シンボルグラウンディング(記号接地)問題は不良設定問題
理解とは何か?

 長井教授は、シンプルな作業仮説として「理解する」とは「予測すること」だという仮説を立てている。時間的・空間的に直接観察されていないものを予測することが「理解」だということだ。そのために概念を使っている。

 概念とはつまり予測する内容だ。ある言葉を聞いたときに想起するものである。正しい予測をし、精度を上げるためには経験を抽象化して汎化させて未来を予測する必要がある。そのために過去の経験をグルーピングしたものを概念と考えている。マルチモーダルな情報をカテゴライズして持っており、その分類を使ってあてはめて予測を実行する。

 たとえば「ぬいぐるみ」という言葉の意味を考える。「ぬいぐるみ」という言葉自体には材質などの情報はない。それを予測することが言葉の持つ意味であり意味理解であると考えるわけだ。意味理解へのアプローチとしては確率モデルを考えている。たとえばロボットに対して音声・画像情報が入力条件として入ってきたときに、自分の行動を生み出す関節トルクパターンの確率はどうなるかと予測する。それが意味理解の本質だという。

 ディープラーニングを使うアプローチではエンド・トゥ・エンドで入力と出力の関係を考える。だが長井教授らのアプローチは確率モデルであり、離散的な表象概念にあたるラベルが、人との関わりの中で自然に作られる点に特徴があるという。

 人がラベル(概念)をデザインする必要はなく、ロボットは機械学習を通して自分で獲得する。「機械学習が構造自体を見つけ出す」のだという。もちろんディープラーニングにも離散的概念がないわけではなく、ネットワークを解析すると、その中に離散的なものが表現されているらしいことが知られている。これらをインテグレートしようとしているのだという。

意味理解とは入力パターンから自分の行動を予測すること
ディープラーニングと確率モデルによるアプローチの比較

 では概念をどう考えているのか。長井教授らは、自然言語処理で使われることが多い確率的なクラスタリング手法であるLDA(Latent Dirichlet Allocation)をロボット用に拡張した「multimodal LDA(MLDA)」というモデルを使っている。ロボットが活動中にさまざまな感覚モダリティ情報を獲得してパラメーターを学習していく、その過程でクラスタリングが自動的に行なうことができるモデルだ。

 ポイントは確率変数間の予測ができることで、これによって、たとえば視覚情報しか入ってこない場合でも、ほかのモダリティも予測ができる。ロボットは概念を使って先を予測することができる。

 具体的にはどんなことができるのか。長井教授は1日3~5時間程度、1カ月くらい(合計100時間程度)かけて500個のオブジェクトを見せて情報を構造化させた実験の様子を動画で示した。

 ロボットは目の前のものを掴んだりしてマルチモーダルの情報を得る。向かいに座った学生はロボットに対して、まるでお母さんのように「これはペットボトルだよ」とか「ぬいぐるみだよ」と教える。そうすると、最終的な結果は語彙数は2歳児くらいになったという。具体的には100単語くらいの単語の意味が「理解」できるようになった。なお辞書などは参照していない。純粋に音素列のみから語彙を獲得したというものだ。

Multimodal Latent Dirichlet Allocation
ロボットを学習させる長期間実験を実施。2歳児程度の語彙を獲得した

 多階層化することで視覚や聴覚にダイレクトに結びついたものだけではなく、人や場所、動きなどの概念を獲得することもできる。たとえば、「お父さんがソファに座ってコーヒーを飲んでいる」というマルチモーダルな情報を得ると、「お父さん」とか「ソファ」とか「コーヒー」を「飲んでいる」といった概念が発火する。このモデルでうまくロボットが学習すると、あるシーンに対して文章が生成できるようになる。

 またロボットに対して物体の取り方や扱い方など基本的動作を人間が手助けして教えてやると、その基本的動作をロボットが自分で組み合わせて目の前にあるものに対してアクションをとれるようになる。たとえば楽器のマラカスが目の前にあってロボットがとったとして、それを振って音が出たときに、そのアクションに対して報酬を与える(報酬ボタンを押す)と、その行動が強化される。この繰り返しでロボットは行動を学習していくことができる。

 重要なことは行動や概念の空間が変わってくるということ。固定された状態空間の中で結びつきや良い行動を探索しているわけではなく、行動している中でその概念や状態空間自体が変化していく。対面している人間だけではなくロボット自体も喋っているので、それらの情報も取り込んで情報が構造化していく。それをもとに行動するとさらにまた新たな情報が得られて概念も変化していく。それが大事なポイントだという。

人や場所、動きの概念を獲得することもできる
ロボットの概念と動作の同時学習

 家庭用タスクの学習も行なっている。長井教授はトヨタのロボット「HSR」を使った片付けの様子を示した。

 ロボットは最初は遠隔操作されて、ものをとったりドアを開けたりといった情報を構造化する。そうすると、操作された経験の中で得られた情報と自分自身の自律動作での情報を使って、自分でものをつかんだりドアを開けたりできるようになる。さらに言葉との結びつけもできる。

 現在、長井教授らは7研究機関でJST CREST「記号創発ロボティクスによる人間機械コラボレーション基盤創成」を進めている。個体が記号、言語をどうやって獲得をするか、その制約は何かを探る。概念が繋がって階層化され、下のほうでは身体ともループを作っている。長井教授は「我々が持っているであろう階層化された知識構造をあぶりだしたい」と語った。

 最後に、「きみら何がしたいのと言われることがある」と語った。サイエンスなのかエンジニアリングなのか、という問いだ。それに対しては「サイエンスに憧れるエンジニアです」と答えているという。認知科学は軸にあるが、それだけではなくて社会に還元していきたいと考えて各企業とも共同研究している。現段階では本当に賢いものをつくるのはむずかしいが、使えるものを使っていくという考え方で開発を進めている。

 AIXでは、身体に根ざして知識や他者理解をちゃんと持つような人工物を作っていきたいという。現在、語彙数としては2歳児レベルにあるので、次は「ロボットを幼稚園に入れたいと思っている」と語った。「いきなり東大に入れるのではなく、道筋がある。家庭で育てて幼稚園に入れて、小学校、中学校とあげていきたい」と講演を締めくくった。

トヨタ「HSR」を使った家庭用タスクの学習実験。
JST CREST「記号創発ロボティクスによる人間機械コラボレーション基盤創成」メンバー
記号創発ロボティクス
ローカルな実世界とクラウド上、双方で学習してサイクルを回す

感性を分析して人に寄り添うAI、アイドル「仮面女子」も登場

電気通信大学大学院 情報理工学研究科 情報学専攻 教授 坂本真樹氏

 「オノマトペ」による質感や感性測定の研究等を行なっている情報理工学研究科情報学専攻教授の坂本真樹氏は「個人の感覚イメージを尊重し,誰にでも寄り合える人工感性知能へ」と題して講演した。

 人工知能の発達で認識技術、数値予測は向上し、産業利用として自動運転なども発展しつつある。だがもっと人に寄り添ってほしい側面もある。世の中には正解不正解があるものだけではないし、感じ方には個人差があるからだ。リコメンドも過去の履歴だけによるのではない推薦もあってほしい。また、人間の創造力の拡張や増幅も大いに期待されるところだろう。

 人は五感を通して周囲を認識しており、素材や物性を読み取ることができる。質感情報処理は脳研究からもまだ解明されてない部分であり、情報工学的にはVRによる自由な質感の生成や、人間のように判断できるロボットの実現も期待されている。

 坂本氏らはオノマトペに注目して質感DBを作っている。人によっても異なるオノマトペを多次元の質感や感性的印象で数量化した評価システムを作り、企業と共同研究を行なっている。

 坂本氏のシステムを使うことで、オノマトペで表される言葉の印象を予測でき、実際に人の印象ともよく一致しているという。たとえば「もふもふ」のほうが「ふわふわ」よりも暖かいといったことが予測できる。

ふわふわの音韻特性
もふもふの音韻特性

 このほか、少数のオノマトペを任意の位置に配置することで、各人の好みを推定することもできるアプリも作っている。これを使うことで、人によって異なる感じ方を、より簡単に、誰に対しても調べることができるという。

 また人は新しいオノマトペにあうことで、逆に新しい質感に気づけることがあるという。新たなオノマトペを単なるランダム文字列を並べるのではなく、遺伝的アルゴリズム(GA)で生成するというシステムも作っていると紹介した。特許も出願しているそうだ。

アイドル「仮面女子」がサプライズ登場

 オスカープロモーションにも所属している坂本氏のプレゼンが異色を放ったのはここから。アイドル「仮面女子」のプロモーションビデオに続いて、メンバーから3名がサプライズで登場した。

 登場したのはリーダーの桜のどかさん、東大文学部で心理学を学んでいた桜雪さん、声優としても活躍している月野もあさんの3人。ここからは4人でのパネルディスカッションとなった。

アイドル「仮面女子」
「仮面女子」リーダーの桜のどかさん
「仮面女子」桜雪さん
「仮面女子」月野もあさん

 昨年8月に月野もあさんと坂本氏が「イノベーションジャパン」で出会い、何か一緒にコラボレーションができないかということから交流が始まったという。

 壇上では坂本氏による単語から想起される色彩情報を使って文章のイメージにあった色を提案するシステムを使って、3人の名前や、「仮面女子」の曲の歌詞を解析して色で表現するといったデモが行なわれた。

 仮面女子メンバーからは「AIを労働環境改善に取り入れてくれれば」といった話題や、「365日毎日ライブをやっていて、毎日お客の層が違う。AIを使ってお客に合わせたセットが組めたりすれば面白い」というアイデアが提案された。

名前の感性イメージの色彩化
仮面女子の曲の歌詞イメージを色彩で表示

音楽配信、不動産、コピーアバター、ファッション、製造業など多様な領域の企業とも連携

 電通大AIXは企業との連携も重視している。キックオフシンポジウムでは連携各企業からのショートプレゼンも行なわれた。

 登壇したのは株式会社レコチョク、株式会社ネクスト、株式会社オルツ、サイジニア株式会社、ネットワンシステムズ株式会社、株式会社クロスコンパス・インテリジェンス、株式会社電通ライブ、パナソニック株式会社の8社。

株式会社レコチョク執行役員 稲荷幹夫氏

 まず音楽配信会社の株式会社レコチョク執行役員の稲荷幹夫氏は、「今はライトユーザーが、所有から月額定額のストリーミング配信へとシフトしている」と業界動向を紹介。ライトユーザーに対して展開しているサービスをいくつか紹介し、楽曲数が多くて、聞きたい曲が探しにくい状況になっていると述べた。

 そこでレコメンデーションへの投資が増えているという。単なる曲調だけでなく、今後はパーソナルベース、すなわち個人情報や状況に基づいたのレコメンドが必要になるし、単なる既知の曲だけではなく、セットリストに突然変異を起こすためのシナリオが必要になっていると述べて、機械学習の必要性を語った。楽曲、付随するメタデータ、視聴行動履歴をもとに考えた、新たなレコメンデーションモデルを作ろうとしているという。

 またメタデータを作るのも今は人間が作っているが、楽曲の曲調や感情からメタデータを作るのは実際には難しいため、人工知能で自動で曲調をベースにしたメタデータを生成しようとしているという。つまり、メタデータを整えたものをどうリコメンドするか、メタデータをどう作るかという2つの方向でAI技術を活用して広げていこうとしているという。

レコチョクによる人工知能活用

株式会社ネクスト リッテルラボラトリー主席研究員 清田陽司氏

 不動産・住宅情報の「HOME'S」で知られる株式会社ネクスト リッテルラボラトリー主席研究員の清田陽司氏は、不動産情報レコメンデーションやVRコンテンツへの取り組みについて紹介した。

 VRコンテンツというのはMicrosoftのHoloLensなどを用いて、内覧に訪れた部屋の中にバーチャルな家具を設置した状態を見てみるというものだ。当日も体験デモが行なわれていた。

 不動産物件においてもレコメンデーションは特殊な事情がある。また現在の人工知能活用はビッグデータに統計的機械学習を活用して云々といったものが多いが機械学習ができるのは基本的に内挿であって、外挿はうまくいかない。だが不動産では未体験ゾーンの領域でのリコメンドが必要になることが多いという。

RoomMR
統計的機械学習の限界

 不動産では物件の写真が重視される。特に重視されるのは物件内部の様子だ。そこで物件内の写真点数が多い物件が検索結果上位に表示される。だがこれを逆手にとって、不動産業者の中には外の様子などの画像を、わざと内部の様子として登録するものもいる。清田氏は、それをAIが見分けてはじくというシステムを紹介した。また、キッチンやリビングなどの様子を撮影した写真からだいたいの広さを推定する技術も開発しているという。

画像の自動判別システム
写真から部屋の広さを自動推定するシステム

 また電通大・栗原研究室との共同研究で、Twitterタイムライン分析のクラウドソーシング的用例を示した。

 Twitterでは本音をつぶやいていることが多いため何が重視される情報か良い参考になるのだという。クラウドソーシングでは多くのワーカーによって行動をタグ付け。これを学習データとして機械学習にかける。そうすると立地条件などで何が重視されているのかがわかるのだという。

 ネクストでは産学連携の取り組みも積極的で、国立情報学研究所のデータリポジトリサービスを使い、2015年11月から「HOME'Sデータセット」を研究者向けに公開している。

 賃貸物件データや画像データのセットで、主にコンピュータビジョンの研究者に活用してもらっており、これによって不動産に関するコンピュータサイエンス領域の研究を活性化させたいと考えているという。

 また同社では不動産以外にも介護施設検索サービスも行なっている。コールセンターのログなどを分析しているという。介護分野では課題に直面するまでの人間関係が大きく影響するといったことがわかっており、また不動産や医療、保険などと密接な関係がある一方、別のビジネス領域なので連携できていないという課題が存在する。

 今後も分野融合を進め、IoTを使った適切な価値の推定や、防犯防災データを住まい探しに活用するといった試みを進める。清田陽司氏は、不動産購入について「ある地域に家を買うのはその地域に投資するのと同じ。ではそこでさまざまなサービスを受け続けられるか。それは不動産の価値を推定するするときに重視すべき情報だ」と語り、ビッグデータ解析などを進めたいと述べた。

「HOME'Sデータセット」の概要
介護施設検索も提供している

株式会社オルツCEO 米倉千貴氏

 パーソナル人工知能(P.A.I.)、「コピーロボットのデジタル版」を作っているという株式会社オルツCEO 米倉千貴氏は、ソーシャルネットワークからアバターAIを構築するという試みについて紹介した。

 AIに意図解釈をさせて自ら行動させることを目指す。そのためには本人のライフログをどこか一箇所に集める必要があるが、その役割を同社が担いたいと考えているという。同社のAI技術では自然言語からの記憶生成ができ、リアルタイムの会話からデータをオントロジーの中に落とし込んでいくことができると述べてデモビデオを示した。

 またMLMG(Machine Learning Material Generator)というシステムを使って、システムがたとえば人の仕草を学習するための素材を自動生成することができているという。機械学習の精度向上に必要な3Dアニメーション画像を生成することで、明るさや距離、画質、動作速度や背景などによらない認識が可能になるというものだ。

 同様に少数のデータからデータを生成して学習を行なうことで、少ない音声データから合成音声を作るというデモビデオも示された。これまで数十万円かかっていた音声合成が、ほとんど無料で提供できるようになる可能性があり、応用範囲は無限だという。

 音声合成には普通は指定されたテキストを読み上げてそれを素材とするが、同社の技術を使えば、ただ発言しているだけの言葉から合成音声を任意の文章ですぐに生成して確認できるという。

オルツのパーソナル人工知能(P.A.I.)は自然対話から記憶を生成し文章を作成する
学習用素材を自動生成するMLMG

サイジニア株式会社 代表取締役CEO 吉井伸一郎氏

 サイジニア株式会社 代表取締役CEOの吉井伸一郎氏はファッションアイテムのレコメンデーションサービスについて解説した。同社の社名はサイエンスとエンジニアリングをくっつけた造語。同社はチラシのパーソナライズサービスなどを展開している。

 また、ファッションにおける出会いからの購買行動を起こしたいと考えており、任意の画像を使ってその画像に映っている服などの商品を検索して購入サイトへ飛べるというサービスを紹介した。アイテム名がわからないものでも画像を撮影するだけで検索して見つけてくれるという。

 技術的には画像から人物領域を抽出、骨格の分析を行なって姿勢を判定する。そのあとで部分にきりだして、特徴量を抽出して近しいものを表示するという仕組み。同社ではユーザーが見たそのままの世界を理解したいと考えており、任意の画像でも認識できるようにライティングのぶれや背景を克服するために深層学習を活用しているという。

 吉井氏は若者たちの行動様式を「みんな画像から始まる。検索するときには行動が決まっていて、何をするかは画像で決めている。これからますます画像がコミュニケーションの主たるデータになる。いかにそれを理解して購入につなげるか、目に見えるものすべてをショッピング可能にしたい」と語った。同社の人工知能ファッションアプリ『PASHALY(パシャリィ)』はiPhone版のみだがAppStoreからダウンロードできる。

「PASHALY」の解析アプローチ

ネットワンシステムズ株式会社市場開発本部 荒牧大樹氏

 Ciscoの日本最初の代理店としても知られるネットワンシステムズ株式会社市場開発本部の荒牧大樹氏は、工場のなかのIoTを助けるAIとして製造業向けの予防保全AIや、電通大と一緒に進めている屋内で人がどこにどのくらい滞留したりコミュニケーションをとっているかという技術についてプレゼンした。

 昨年秋口くらいから研究を進めており、まずは社員がどこでどういうふうに働いているのかを確認するためのセンシングを始めた段階だという。今はそこで得られた情報をもとめにマイニングして、将来的には改善するためにフィードバックしていく予定だとした。

 ワイヤレスLANの三角測定に加えて位置精度を上げるためにiBeaconを組み合わせて、誰がどこで働いているか、空いている会議室はどこかといったことを調べる。

 また、AIとインフラの事例として、コストパフォーマンスの良いディープラーニングのための組み合わせなどを提案するとのことだ。

iBeaconを使った可視化
施設内の見える化

株式会社クロスコンパス・インテリジェンス代表取締役社長 佐藤聡氏

 東工大発ベンチャーの株式会社クロスコンパス・インテリジェンス代表取締役社長の佐藤聡氏は、「製造業にディープラーニングを活用する例が増えている」と語った。

 同社は「AIベンチャー」で検索すると、ずっとトップに表示されており、そのため多くの問い合わせがあり、特に企業の持っているデータを使って解析し、どうやったら人工知能が使えるのかまでのところに強みを持っているという。

 佐藤氏は、半導体製造メーカーでの異常検知例を示し、従来のシステムでは正常なのに異常とされる誤報が多かったところに、ディープラーニングを使って特徴量を見出し、異常と正常とを区別できるようになったという事例を示した。

 また従来よりもサンプリングレートを上げることで、これまで見つからなかったエラーも見つけることができるようになったという。これまでは熟練者が音を聞いて調べていたのを機械で行なえるようになったわけだ。このための前処理部分が同社のノウハウだという。また化学プラントで製品の出来具合を最適にするためのパラメーターチューンをニューラルネットワークで行なうという事例もあるとのこと。

 佐藤氏は巨大IT企業は今大量の「弱いAI」を作っているが、それは「強いAI」の開発準備に他ならず、もはや一企業が同じことをしても叶わないので、「知を交換する市場」のための学習用データを作ることに力を注いでいると語った。

音響・振動解析
プラントデータ解析

株式会社電通ライブ クリエーティブユニット チーフプランナー 日塔史氏

 株式会社電通ライブ クリエーティブユニット チーフプランナーの日塔史氏は、広告代理店が「次のテクノロジ」としてAIに注目している理由を語り、同氏が2015年10月から進めている「ヒアラブル」というマイク付きワイレスイヤフォンを使った、ウェアラブル機器の可能性についてプレゼンした。

 イヤフォン・補聴器はインプットとアウトプッとの両方が可能なデバイスであり、ライフログも取りやすく、「耳に入るコンピュータ」として捉えることができるという。日塔氏は「ヒアリング・エージェント」は「ポスト・スマホ」へのグランドチャレンジだと語った。

イヤフォンを耳に入るコンピュータと捉える
「ヒアラブル」というコンセプトを提唱

パナソニック株式会社 先端研究本部 インタラクティブAI研究部 知的ロボティクスシステム研究課 足立信夫氏

 パナソニック株式会社 先端研究本部 インタラクティブAI研究部 知的ロボティクスシステム研究課の足立信夫氏は、製造業からみたAIへの期待について語った。

 これまでは実世界に対してセンサーやアクチュエータでインタラクションをとりながら、シグナルデータを処理して価値を提供してきた。これからはAIを活用したシンボルデータの知的処理の時代になる。これをリアルタイム信号処理と組み合わせることで新たな付加価値を提供できる。

 そのためのツールがAIであり、高次の識別・予測・制御への道を開く。これはモノ主体からサービス主体へと転換するチャンスだという。特に大事なのはデータに着目することだと足立氏は述べた。

これからのAIを活用した製造業
製造業にとってビジネスモデル転換の大チャンスだという

 AI活用の前に、現在の強みの分析と明確化が必要だ。足立氏はパナソニックの強みは4領域にあるとし、AI技術の応用例として歩行支援ロボット、自動運転向けのリアルタイム障害物検知、住宅関連の見守りサービス、水中インフラ点検ロボットなどを示した。

 障害物検知にはディープラーニングを用いて歩行者や車を認識して識別できるようになっている。今は検知から予測へと技術を進めつつあり、危険予測AIを実現して、安全運転支援サービスへつなげたいと考えているという。水中インフラ点検ロボットは社会インフラ点検技術の一環で、画像鮮明化と画像認識の技術、水中の中で自己位置推定する技術などを組み合わせている。インフラ統合管理サービスに提供できれば、経年劣化の見える化が可能になるという。

 パナソニックではサービス付き高齢者住宅を展開している。高齢者の生活アシストを狙いとした歩行支援ロボットも開発している。6軸力センサーを使って、人がどういう方向にいきたいのか意図を推定し、モーターを制御して安定して歩行できる。7割くらいの人が歩きやすいと評価しているという。アシストだけではなく歩行能力も判定できるため、リハビリや見守りにも展開できる。

 足立氏は最後に、「AIはブームだが必然的な大きな流れでもある。製造業にとっても大きなチャンス。AI活用にはデータが必須。データを活用した新しいビジネスモデル転換が必要だ。パナソニックは4つの事業領域とAI技術で、リアルワールドにさらなる価値を提供する。新しいサービスへのチャレンジをしていくためにも人材はキーになる」と講演を締めくくった。

パナソニックのAI技術応用事例
自動運転向けのリアルタイム障害物検知事例
水中インフラ点検の事例
生活支援ロボット

URL