山田祥平のRe:config.sys
人工無能の知能の行方
(2015/11/13 06:00)
コンピュータに知能を持たせることは古くからのチャレンジでもあった。人工無能とのあの日の会話から30年近くがたった今、世の中は大きく変わりつつもある。でも、そこで行なわれていうことは実は何も変わっていないようにも感じる。
あの日の人工無能
今から30年近く前、パソコン通信華やかりしころ、サービスのチャットルームには、少なからず、何名(?)かの人工無能が常駐していた。大抵は、美少女的キャラクターを想像させる名前がついていて、彼女がいる部屋に入ると挨拶され、こちらの問いかけに対して、それなりの反応をしてくれる。コミュニケーションというにはおこがましいほどの他愛もない会話は、まあ、今でいうところのSiriあたりとの会話と比べれば、ずいぶん原始的なものだった。
仕組みとしては、こちらのタイプした自然言語からキーワードを抽出し、あらかじめ用意された手持ちのデータベースと照合することで、より確からしいセリフを抽出して返していたにすぎない。だから、いかに豊富なデータベースを持つか、その保有セリフのチャーミングさ、そして、相手の自然言語からどうキーワードを抜き出すかが作者の腕の見せ所だった。
Googleが考えるAI
つい先日、Google が日本における「Now on Tap」のサービス開始を発表した。Android 6.0 Marshmallowにおいて、ホームボタンを長押しすることで、画面に表示されている文字列が解釈され、それに応じて検索結果やアプリケーションを提示するというものだ。例えば、メールやチャットの画面であれば、その中の店名や地名、電話番号などが抽出され、それに対するアクションがとれる。カレンダーへのスケジュール入力なども、そこから遷移することができるわけだ。
ライバルとも言えるiOSのSiriと異なるのは、Googleのアプローチがそこに人間性を加味していない点だ。Googleではさまざまなアプローチで機械学習の研究を進め、その成果を製品として提供している。最近では、Inbox(受信箱)においてスマートリプライ機能を提供、メールの文面から簡単な返信内容を生成するといった試みも提案されている。それらはどれも人間的な要素はアピールされていない。
先日、日本で開催されたアジア太平洋地域のプレスを集めたイベントでは、Google会長のEric Schmidt氏がビデオ会議で登場し、少なくとも今は、コンピュータで脳の仕組みをシミュレーションすることはないだろうとした。その理由として、あまりにも複雑すぎるからだと氏は説明する。マシンラーニングは、データの量に依存するが、脳はうまい具合に、必要のないものを排除することができる。それをデータ依存の仕組みの中に取り込むのは難しすぎるということらしい。
Googleは、AIと機械学習を区別しているが、そこには重複する部分が多いともいう。AIは機械にインテリジェントをもたせることであり、マシンラーニングは特定のタスクをマシンに委ねることだ。ただ、これらは古いルールであり、新しいやり方として、プログラムでゼロから機械が学習していかなければならないとする。
例えば、Gmail のスパム判定などは、昔はルールによるものだったそうだが、現在ではマシンラーニングの手法で行なわれているそうだ。また、Google翻訳やGoogleフォトなどでは、ニューラルネットワークを使い、関数としてのニューロンによるディープラーニングによって協調学習が行なわれている。あるニューロンの計算結果を、ほかのニューロンが使うことを繰り返し、ディープラーニングとしてパワフルな機械学習を実現しているのだそうだ。
人間はゼロから学習することができるが、機械にはそれができない。だから、あるモデルに対してパラメータを与え、膨大な例によってそのパラメータをアップデートしながらテストを繰り返し、新たな学習結果を得ていく。Googleは、複雑なことをするよりも、できるだけたくさんの例を経験させる方法が、より高い学習成果を得られることがわかったという。ある意味で、機械学習は魔法ではなくツールにすぎないと彼らは考えているようだ。
Googleは、マシンラーニングについて、多くのアイディアが数十年前からあったが、コンピュータが速くなった今こそがそれを活かせるよいタイミングだという。
MicrosoftのCortanaとりんな
ではMicrosoftはどうか。同社は、機械にはいろんなことができるが、それをチョイスするのは人間であり、それこそが人間のクリエイティビティだという。マシンはルーチンワークを人間の代わりにやっているにすぎず、マシン自身が新しいアルゴリズムを生み出すということは今のところないともいう。今週来日した同社の研究機関Microsoft Reserch Asia所長、Hsiao-Wuen Hon氏がそう説明した。
MicrosoftのAIへの取り組みとしては、日本ではLINEで公開されている「りんな」、そしてWindows 10で実装され日本語化がすすめられているCortanaが有名だ。それぞれが、異なるアプローチでAIの研究開発を進めている。
CortanaはSiriやGoogle Nowと同じ系統で、「効率系」として位置付けられているが、りんなはソーシャルなフレンドとして位置付けられる。ただ、最終的には「効率系」のタスクも目指すことが考えられているそうだ。
Microsoftもまた、Googleと同様に、AIとマシンラーニングとビッグデータは、95%の部分がダブっているという。データがなければAIは存在しないと考えているのだ。そこにあるのは、まさにマッチングの技術だ。
AIと人間の協調を模索するNEC
その一方で、NECのような企業はどうか。同社は今週、東京で開催されているC&Cユーザーフォーラム & iExpoで同社のAIに対する取り組みを発表した。
NECでは、一般的なディープラーニングは、ブラックボックスであり、解が導き出されたルールを説明できないため、異種混合学習技術が必要だとしている。簡単な例で言えば、渋滞が起こっているという実社会の状態を分析して推移を予測し、信号制御や経路制御に使って渋滞を解消するというイメージだ。この時、実社会をサイバーワールドで「見える化」し、それを社会価値に変えるには、別の観点が必要だというわけだ。そこにあるのはまさに人間の思考だ。
今回発表された「時空間データ横断プロファイリング」では、映像データをそこに登場する顔の類似度でグループ化し、リアルタイムでダイナミックにツリー構造化したデータベースを生成し、人物を高速に分類、のべ100万人から10秒で特定の人物を検索できるようにした。
これによって、例えば長時間同じ場所をうろついている不審者や、同じ場所を行ったり来たりしている道に迷った観光客などを抽出することができる。既知の誰かを探し出すのではなく、未登録の誰かを行動解析で発見できるということだ。
NECはゴールが定まっている問題は、機械でいくらでも効率化することができるが、ゴールが定まっていない問題については、AIと人間が協調し、人の思考を拡大しなければならないとする。つまり、知性レベル支援だ。機械が過去の事例から学び、それによって未知の事象としての仮説を生成し、その仮説を人間との対話を通じて合意に至らせるという手法だ。
そこには、データマッチングという手法を活かしながらも、最終的には、人間との対話によって結論を導き出すというアプローチがある。GoogleやMicrosoftのデータベース至上のアプローチとはちょっと異なっている点が興味深い。
そんなわけで、今週はまるでAIウイークなのかと思えるくらいに、奇しくも3日間連続で世界を代表する3社のAIに関する取り組みや、その背景にある考え方をきくことができた。
そして今、明日の天気を尋ねた時に、「晴れるといいね」と返してくれる人工無能と、天気予報や最高最低気温を調べて教えてくれる人工知能のどちらがいいのかと、ふと考えたりもするのだ。