入門:教養としての人工知能

日々進行中の人工知能の社会実装とビジネス上の課題、理解の格差、そして歴史

Amazon AI、Google NMT

 相変わらず人工知能ブームは続いており、日々、さまざまな企業が人工知能を使って新しいサービスを始めたニュースが報じられている。顧客サービスや広告配信の最適化、マッチングビジネスへの適用、あるいはそれらを見越したBtoB用のクラウドやプラットフォームの強化の話題が多いが、最近、一番インパクトがあったのはAmazonによるレジ不要の小売サービス「Amazon GO」の発表と、グーグル翻訳がニューラルネットワークの導入(Neural Machine Translation、NMT)によって精度を飛躍的に向上させた件だろう。

 2017年に開始する予定の「Amazon GO」は、スマートフォンで2次元コードをかざして入店した後は、棚から欲しい商品を適当にとるとバーチャルカートにそれが追加されて、ゲートを通って外に出ると自動決済されるというサービスだ。

 「USA Today」紙がこの仕組みを推定しているところによれば、カメラとマイクを使って顧客位置、商品のピッキングなどをトラッキングしているのではないかという。棚側にも赤外線を使ったセンサー類が使われているのではないかと推測している。あくまで推測だ。

 何にしても面白い。ただ、日本人からすると、普通にショッピング用のカゴと、買い物袋にいれるための作業台が欲しいなあと思ってしまったのは、私だけではないと思う。

【動画】Amazon GO

 Amazonは12月に「Amazon AI」プラットフォームを発表。同社が開発している自然言語理解(NLU)、自動音声認識(ASR)、視覚検索およびイメージ認識、音声変換(TTS)、機械学習(ML)、対話エンジンなどを外部にも開放した。

 これによって同社が米国で展開している「Amazon Echo」に搭載されているパーソナルアシスタント「Alexa」のようなサービスを構築できるという(Amazon Lex)。そのほか、ディープラーニングを使った画像認識「Amazon Rekognition」、テキストを音声に変換する「Amazon Polly」などのサービスが提供される。これらが組み合わさるとどんなことができるのか。大変面白いと興奮すると同時に、脅威を感じている人達も大勢いる。

【動画】Amazon Echo

 一方、GoogleによるNMT技術の発表自体は9月に行なわれていたが、それがサービスインした。確かに、以前よりだいぶマシになっている。やがてはワンクリックで、大抵の言語ならば、そこそこ自然な翻訳が手に入るようになるのかもしれない。

 このように、ごくごく身近なところでも人工知能関連技術の恩恵を受けられる時代が到来している。

【動画】グーグル翻訳

機械学習に必要なデータを自動で収集できるか

 現在のAIブームは過熱しすぎの感も強いが、今後、人工知能関連技術が多様な領域に自然に入ってくることは間違いない。今はなんでもかんでも「人工知能」と呼ばれてニュースになっているが、ブームが過ぎ去った後には、ことさらに「人工知能」と呼ばれなくなるだけだ。

 人工知能の技術は一言でまとめると、要は自動化技術である。ニュースを遠目で見てみると、ビジネス領域での人工知能の活用は、徐々に自動識別のような話から、予測やマッチングへと進みつつあるようだ。そこから先はまだあまり話を聞かないが、将来はさらに踏み込んだ自動化が行なわれるようになるのだろう。

 ただ、人工知能はなんでもできる魔法ではない。最近注目を浴びている機械学習の場合は、原則として、学習のためには大量の正解データが必要となる。業務を改善したければ、そのための正解データが必要なのだ。特殊な例も含めて学習させることは大変である。また、逆にいえば、データを手にいれて活用することができる企業ならば活用できるが、それがない企業の場合は、まずはデータを用意できるような業務全体の見直しが必要になる。

 いくら昨今の人工知能技術が、映像や音声を認識する実世界理解や、非構造化データを構造化できるようになりつつあるといっても、まだまだ人間しか読むことでしか価値を引き出すことができないデータは多い。いわゆるダークデータ、レガシーデータである。何にしても、人工知能による業務改善を活かすためには、これらをどう自動的に機械に入力できるかたちに自動変換できるようにを見直していくかが重要になる。いわゆる「IoT」に期待されているのは、結局のところ、ここだ。データの自動収集である。

 「Amazon GO」のような合わせ技の技術が本当にインパクトを持っているのもここだろう。レジをなくすことで小売のコスト削減がどうこうといった話ももちろんありはするのだろうが、本質的にはおそらく、これまで取得できなかった領域でのデータを収集する点の方が核心なのではないだろうか。

 何しろ、一度手にとりはしたが、棚に戻した商品は何か、どこでどのくらい立ち止まったかといったことまで細かく取れるのである。しかも単にデータが取れるだけではなく、それを解析できる時代がようやくやってきた、という点が大きい。そこが、これまでとは違う。これらの技術を使えるかどうかで、これからのビジネスではどんどん差が付くことになるのかもしれない。

【動画】Amazon Web Services Japan公式チャンネルによるAmazon Machine Learningの解説

広がる「人工知能」に対する理解の格差

 人工知能関連の技術は現在進行形で適用されていっている。技術を使えるかどうかで富の格差が生まれるという人たちも多い。一方で、人工知能とは何なのか、相変わらずまったく理解が進んでいない層との乖離も進んでいることを、筆者個人は日々感じている。

 人工知能は、一言で言えば数学的なツールであり、分類器のようなものだ。だがそれは人工知能という言葉を聞いた時に一般の人がイメージするものとはだいぶ違う。一般の人が考えてしまうのは実際に思考する機械知能だ。まるっきり「ドラえもん」や「鉄腕アトム」の世界である。多くの解説記事が出ている今でも、未だにそうなのである。

 そこまでいかなくても、最近のブームによって、いろいろな関連ワードの知名度だけが上昇しており、例えば、「人工知能は機械学習でどんどん成長するのだ」といった、夢や願望を含んだ根本的に誤ったイメージを持っている人も増えている。

 自律的に何かを学ぶようなアルゴリズムは分かっていないし、そんなプログラムは実現できていない。何度も言うが、人工知能は考えたりはしない。囲碁をどんなにやらせたところで自発的に将棋をやり出したりはしないのだ。現実的に技術適用領域が増えているのとは対照的に、今人工知能には実力以上の期待がかけられている。ここに大きな格差が生まれている。どちらが将来の富を獲得するかは言うまでもない。

 そもそも、「考える」とはどういうことか自体、よく分かってないのだから、それを工学的に実装するのは無理、といった言い方で理解してくれるとは思わないが、現実の人工知能が考えたり成長したりするものではないということだけも分かって欲しい。

 ただ、このような誤解が生じることは、ある意味では必然なのかもしれないとも思う。何しろ名前が「人工知能」なのだから、知らなければ「自分で考える何かのことだろう」と思うのは仕方ない。だが、研究者の中には「人工知能」という言葉そのものはあくまで分野のことであるとして、具体的にやっている仕事内容自体を指す言葉としては使わない人もいるのだ。そういう言葉なのである。

 では、なぜそんな名前になったのだろうか。この連載は「教養としての人工知能」なので、ここでいったん、人工知能の歴史をざっとおさえておきたい。

人工知能の歴史 誕生以前

 歴史的にも、あれが人工知能だ、いやこれは人工知能ではないといった議論は、これまでも繰り返されてきた。人工知能の歴史については人工知能学会のホームページにもまとめられているが、もう一度、基本だけ振り返ってみる。

 「人工知能(Artificial Intelligence)」という言葉が誕生したのは1956年。「人工知能の父」と言われるマッカーシーが「ダートマス会議(The Dartmouth Summer Research Project on Artificial Intelligence、直訳すると人工知能に関するダートマスの夏期研究会)」で使ったのが最初だと言われている。今年(2016年)で誕生から60年になる。

 どういう経緯でマッカーシーがこの言葉を使ったのかについては、他媒体だがCNETの「人工知能の第一人者J・マッカーシー氏に聞く--AI研究、半世紀の歴史を振り返る」という10年前のインタビュー記事が分かりやすく、とても面白い。なお、ダートマス会議は「会議」という名前だが、実際には集中的に集まって会議をしたわけではない。

 当時、多くの研究者は技術楽観主義で、ほどなく人間同等の知能を機械で実現できると考えていたようだ。特に記号論理によって知能が実現できると思われていた。周囲の物事・世界は全て記号に落とし込むことができ、それを組み合わせることで知能が表現できると思っていたのである。こうして、1960年代の最初の人工知能の夏が起こる。

 ただし、もともとの人工知能の概念提唱はもうちょっと早い。アラン・チューリングが1947年にLecture to London Mathematical Society(ロンドン数学学会における講演)において提唱したのが初めだと言われている。

【動画】スタンフォード大学による「Turing: Pioneer of the Information Age」

 チューリングは今日のコンピュータの論理的な原型を生み出した論理数学者だ。計算とは何なのか、計算機に何ができて何ができないのかを探究していた彼は普遍的計算機「チューリングマシン」を想定して、計算の本質と限界を考察した。有限状態機械と読み込み・書き込みが可能な無限のテープからなる「チューリングマシン」は、今日の一般的な計算機「プログラム内蔵型コンピュータ」の論理的な原型だ。後にそれはノイマン型コンピュータとして具現化することになる(なおノイマンは「セル・オートマトン」という概念を提唱しており、これもまた後世に大きな影響を与えることになる)。チューリングは、プログラムや、命令集合であるアルゴリズムといった考え方を編み出し、それが後に世界初の汎用的な電子式コンピュータを生み出すことになった。

 計算機科学の父とも呼ばれるチューリングは、生物にも興味を持っていた。彼について書かれた多くの伝記を読むと、チューリングは、計算機が人の脳を模倣できること、すなわち思考し、学習する機械、今日でいう広義の、強い人工知能の実現を疑っていなかったようだ。彼は、人間も有限状態機械だと考えていたのである。この辺りの話は『ノイマン・ゲーデル・チューリング』(高橋昌一郎/筑摩書房)あたりが手頃な本なので、一読をおすすめしたい。

 現在の人工知能が細かい機能特化型であることと比べると対照的だが、実は計算機科学は最初から人間のように思考する機械の実現を夢見ていたことになる。強いAI、思考する機械を目指そうとしている人たちは、その源流を受け継いでいることになる。

【動画】チューリングは「もしコンピュータが完全であることを求められたら、それは知的ではありえない」と言ったという

人工知能の歴史 誕生後の2回の冬、3度目の夏は本物か

 さて、知能の本質は記号処理にあると楽観的に始まった人工知能の研究は、推論や探索をターゲットに始まることになった。チェスやパズルを解いたりするところから始まったのである。ところがほどなく限界がやってくる。記号表現や知識表現だけでは記号に落とせない部分に対してアプローチができないこと、記号からもとのイメージへと戻すことが難しかったり(いわゆる記号接地問題)、そもそも世界をどう分節化するかが難しいといった点で壁にぶつかってしまったのだ。

 非常に単純化された限られた世界を相手にするなら、全てをルールに書き下すことも可能だ。だが現実世界はそういう世界ではないし、知能というからにはむしろそこ(未知の環境で情報が不足している中で、何らかの解を見出すこと)への挑戦が期待されているにもかかわらず、歯が立たなかったのである。このような流れの中で、知能という観点では「身体性」や周囲の環境を取り込むことが大事だといった考え方が生まれてくる。

 最近になって再び注目が集まっているニューラルネットワークについては既に以前紹介したので詳しくは触れないが、生物の神経系にヒントを得た試みで、いったんは下火になっていたことはよく言われている通りである。ちなみにニューラルネットワークの元祖の「パーセプトロン」が論文発表されたのは1958年のことだ。つまり人工知能研究のごくごく初期から既に存在していた考え方だったが、その後、ミンスキーらが限界を指摘したりした結果、下火になったと言われている。そしてこれが最初の人工知能の夏の終わりのきっかけの1つだったとも言われている。

 ただずっと人工知能がパッとしなかったわけではない。そもそも仮名漢字変換や検索も人工知能の成果だ。そして1980年代には再び夏の時代が来る。「エキスパート・システム」に注目が集まったのだ。これは、専門家(エキスパート)のような知識をコンピュータに持たせれば、とりあえず「もし○○ならば××」といったやり取りは可能になるのではないか、という考え方だった。

 理屈は正しいように思えるが、残念ながらあまり使い物にならずに終わってしまった。やはり、知識として書き下すことができるものが限られていたからだ。世の中には例外が山のようにあるし、知識同士は時に衝突する。そういう問題を解くことができなかった。

 なお、その当時に企業が出していた楽観的な話題については、ネットで検索するとアーカイブをいくらかは読むことができる。今の目線で目を通して見ると、いろいろ考えさせられる。今と期待されていることがほぼ同じなのである。それらへの期待が失望を招いてしまったことだけは覚えておいた方がいい。

 一方ニューラルネットワークの方も基礎研究は続けられていて、1979年には日本のNHK技術研究所に在籍していた福島邦彦氏らが考案した「ネオコグニトロン」が発表される。これには、現在大いに注目されているディープラーニングに用いられるCNNの基礎が既にあった。だが当時は実際にはうまくいかなかったことと、ほかの機械学習手法がうまくいったこともあって、長らくそのままにされていた。

 今になってニューラルネットワークが再び注目されるようになった理由などについては、計算機の高速化と質の良い大規模データの整備、深層学習の問題を誤差逆伝搬法が解決したからだ、と、いった話はよく知られている通りである。この背景には、統計的手法の発展もあった。

 今後どうなるかは分からないが、おそらくは適切な手法を組み合わせることで、より多くの問題を解決できるものへとなっていくのだろう。一方、人工知能の技術手法そのものはブラックボックス化していき、一般人からは見えないもの、意識されないものになっていくのかもしれない。

 なお研究分野としても、人工知能はいくつかに分かれている。1980年代から、センシングはコンピュータビジョンへ、認知は人工知能、アクションはロボティクスへ、といった具合だ。学会もその当時から別々になっているが、人工知能とロボティクスは、もともとほとんど同じ分野であり、手法にもアプリケーションにも共通点が多い。

 このように研究が分かれていったのは、人工知能という研究分野が、「知能とは何なのか」ということを探索しながら、同時にそれを実現しようとしているからかもしれない。ロボットと人工知能の話はまた別途触れたい。

【動画】TEDで「知的なマシン」について講演するマービン・ミンスキー氏