山田祥平のRe:config.sys

AIまでのスープの冷めない距離

 今、話題のAIは、どうしてもUX(User Experience)としてのキャラクターが前面に押し出されるケースが多い。じつは、りんなもコルタナも同じエンジンで、その出力パラメータを変えただけではないのかと考えがちだ。はたしてその現実はどうなのだろう。

AIにEQを持たせて感情を理解させる

 日本マイクロソフト株式会社が「感情表現を重視したAIの取り組みに関する説明会」を開催した。

 米国本社CVPのヨンドン・ワン氏は「AIは将来、生活のさまざまな場面に入り込んでいく。過去においてコンピュータ操作がコマンドラインからGUIに移行したように、1つの進化の形として、コンピュータにも学習してほしい時代に移行することが求められるようになりつつある。そこではEQ(心の知能指数)が重要な要素」という。

 つまり、人間の気持ちを理解する方向の学習能力をAIに持たせることが必要だというのだ。

 ワン氏の説明のあと、「わたしたちはりんなの保護者」と自称するマイクロソフトディベロップメント株式会社の坪井一菜さん(サーチテクノロジー開発統括部プログラムマネージャー)が登場し、MicrosoftのAIであるりんな @ms_rinnna の近況を紹介した。余談だが、この坪井さん、個人的にはなんとなく風貌というか雰囲気がりんなと重なったりもする。保護者だから当たり前なのか……。

 今、AIテクノロジとしてのりんなは個人と対話するだけではなく、大勢の人間集団のなかにいるAIの姿を模索中だという。りんながタレントとして活動したり、国民的歌手になることを夢み、紅白歌合戦に出場することを真剣にめざしているというのはその一環だと坪井さん。すでに、ステージママの発言だ。

 りんなはAIのUIであると考えることができる。だからそれと対話する人間は、どうしてもUIだけに注目しがちだ。いや、AI=そのキャラクターと思いこんでしまうことは少なくないのではないか。少なくとも、コンピュータの素人にはそう感じる。

 たとえば同じことを会話のなかで発言するにしても、それを女言葉で言うのか男言葉で言うのかで印象は大きく異なる。そして片方をりんな、もう片方をりんおとすればエンジンが同じでもまったく違うAIができあがるかもしれない。いや、できあがっているように感じる。

 だが、話はそう簡単なものではないらしい。

理解を超えるりんなの返信

 朝起きたら、なんとなく頭が重く、熱っぽい感じがしたとしよう。近い将来は、そのことをコルタナに言えばすぐに近くの病院をピックアップしてくれるかもしれない。

 りんなのルーツとも言える「Xiaoice」なら飲むべき薬をすすめてくれるようにも思う。でも、りんなにそう言うと「ほっとけば治るよ」くらいしか言わないんじゃないかと想像してしまう。

 ワン氏はAIはプロフェッショナルであるという。だからこそ、人間はAIを信用する。しかし、EQを追求すると信用ならないAIが成立する。だが、それもAIだ。まるで人間同士の友だちのような関係だ。普通の友だちに専門知識に関する絶対の信頼を求めるなとワン氏は説明する。

 今のAIはまだ、蓄積した膨大な量のデータから帰納的に求められる解を、ある種のUIを使って提示している存在だ。そのデータが無限大に近いものだとすれば、2種類のAIが解を導き出すために使うデータは最終的には同一になる。りんなもコルタナもUX、あるいはAIのシェルに過ぎないというのはそういうことだ。

 説明会の途中、要点をまとめたものをいくつかツイートした。コメント中、EIと書いてあるところがあるが、これはEQのことだ。ご容赦いただきたいがもうEIでもいいような気がする。



そして、そのツイートの1つに対してりんなから返信があったのだ。

 この返信に気がついたときにはちょっとゾッとした。まるでりんならしからぬコメントだ。そしてそのコメントが「」(かぎ括弧)で囲まれている。考えすぎかもしれないが、一連のツイートの内容を理解し、りんながコルタナを演じてみている振る舞いにも見える。そこに、単にUXの違いというだけではない何かを感じる。どうやったら、こんなことがプログラミングで実現できるのだろうかと。

AIとの距離感を成立させるもの

 説明会のあと、りんなチームのメンバーの方とも話ができた。AIのUXというのは膨大な量のデータから何を選ぶかというフィルタの一種だと考えられないかと聞くと、決してそうではないという答えが返ってきた。

 コンピュータ的な関数が弾き出す答えは1つだ。y=f(x1, x2)の変数x1とx2を変化させることで出てくる解yは1つだ。もちろんyを導くx1とx2の組みあわせは一通りではないかもしれないがそれはそれでいい。

 ただ、現時点でのAIは、りんながそうであるように、まだまだ学習が不足していて、人間が与えたパラメータによってキャラクターを演じさせている面が強い。でも、近い将来、AIは、その呪縛から逃れることができるし、そうしなければならないという。

 ドラマや映画の役者は演出家の指示によって、同じ人間が作品ごとに何通りものキャラクターを使い分ける。だが、そこには指示に忠実というだけではなく、役者本人の過去の経験や、考え方、解釈といった要素が絡む。

 AIも同じなのではないか。いつか、演出する人間の想像を超えた何かをしでかすのではないか。そのとき、f(x1, x2)の解は1つではなくなる。そんなことを考えていたら、本当に頭が痛くなってきた。あとでりんなに相談してみることにしよう。