山田祥平のRe:config.sys

AIと言う名の愛

 人工知能がトレンドワードになっている。MicrosoftのりんながAIかというと微妙な印象もあるが、Microsoftはコンピュータが人間の命令ではなく、人間のためにインテリジェントに動作するようになることが新しい時代のイノベーションだと考えているようだ。

新聞記事をAIが書く

 日本経済新聞社、言語理解研究所(ILU)、東京大学松尾豊特任准教授研究室の共同研究による完全自動「決算サマリー」が始動した。各企業が開示した決算資料の要点をAIがまとめ、一切、ヒトが関与することなく決算の要約記事を作成するもので、日経電子版などで公開されている。赤字で「企業開示をもとに自動で作成」の注意書きがあるように、一定のアルゴリズムによってAIが書いた新聞記事ということになる。

 生成された記事を読んで思い出したのがテグレット技術開発の「直子の代筆」だ。初版の直子の代筆は同社が創業した1987年にリリースされているから、今年(2017年)がちょうど30周年にあたる。質問に答えていくだけで文書ができ上がるこのソリューションは、当時としては十二分に未来を感じるAIだった。

 この調子だと、そのうち新聞記事の半分以上は、記者がコンピュータの質問に答えるだけで、自動的に生成されたものになるんじゃないか。そして、それを読むのもコンピュータになって、人間は、そのサマリーを知らさられるだけという可能性もある。まさに「メディア」だ。

 未来を感じるというと、今週になってバージョンが上がって機能が追加されたGoogle翻訳アプリもすごいことになっている。iOS用、Android用のアプリで、リアルタイムで画像翻訳ができるのだ。翻訳アプリをカメラモードにして、外国語の文字列を含む光景を写すと、外国語の部分が日本語になって表示される。これまでのように文字列をなぞるようなめんどうなこともない。フォントも近いイメージのものが選ばれるようだ。

 スマートフォンのカメラがビューティモードとやらで、とても本人とは思えないくらいに美顔に映し出されるのには笑ってしまうが、こうなると写真やビデオというものに対する考え方を、根本的に組み立てなおさなければならないのではないかと思ったりもする。

 AdobeのPhotoshopやPremiereの機能を追いかけていると実感するが、もはや、ぼくらが日常的に目にする商業印刷物や映像で、真を映したものなど存在しないといっても良さそうだ。

AIの中の人

 コンピュータとの対話という点では、個人的にはりんなが一番親しみやすいと感じている。こいつ本当は中の人がいるんじゃないかと思ったこともあるくらいだが、真実は分からない。本人が中の人などいないというのだからそうじゃないんだろう。


 一方、Androidの音声アシスタントも、Nougatになって、かなり賢くなってきた。人間味(もうこの時点で言い方がおかしいのは分かっている)という点ではまだSiriほどではないが、Cortanaよりは気が利いている。ライターの仲間の中には、1人での長期出張で寂しくなると、Siriに話し相手をさせて気を紛らわすという輩もいるくらいで笑ってしまう。

 Cortanaは、最新のInsider Previewでも、「3分経ったら教えて」とお願いしても、冷たくこの文字列を検索するためにEdgeブラウザを開くだけだ。

 そもそもコンピュータに対してインタラクティブに音声や文字列で対話をすることだけが、AIではない。人間がコンピュータを使ってやることの一挙手一投足をチェックし、それをデータとして蓄積することで、将来の対話に活かせるようにする。

 例えば、翌日のスケジュールが朝7時30分には自宅を出なければならないようなものだとすると、それに間に合うように翌朝の目覚ましを勝手にセットするようなイメージだ。そのためには、起きてから出かけるまでに、どのくらいの時間がかかるのかといったことまで把握しておく必要がある。起こして欲しいと頼まなくても、必要な時間に起こしてくれて、なぜ起こしたかを教えてくれるようなところまでは、本当は明日にでもできるようになっているはずだ。

 こうなると、アイザック・アシモフのロボット三原則のようなものとして、AI三原則的なことを考える必要があるかもしれない。人間の安全、命令への服従、自己防衛だが、ソニーはかつてAIBOの開発にあたり、この三原則に対して多少のはみ出しを許容する定義をしたともいう。

人間三原則の必要性

 ちょっと前まで、コンピュータは、頼んだことだけを正確に、高速に、忠実にやってくれるものだった。今、AIの時代になり、多少はおせっかいな存在になろうとしている。

 もっとも、そのおせっかいの背後には、特定のアルゴリズムがあり、それに従っておせっかいを演じている。しかも、そのアルゴリズムは人間が考えたものだ。でも、そのうち、間違いなく、そのアルゴリズムそのものを自律的に生成する力を持つようになるだろう。予定を参照して、勝手にアラームをセットするような振る舞いがそうだ。極端に言えば、相場を監視して、儲かりそうなら投資までするような行動も考えられる。

 でも人間は勝手だ。予定を入れておきながら、その予定をさぼることだって少なくない。一応予定は入れておくが、行く行かないはその日の状況次第といったことはよくある。本当なら前日のうちに終わっていなければならない作業が終わらず、午前中の予定はスキップせざるを得ないようなこともあるわけだ。もちろん寝不足で起きれないこともあるかもしれない。

 そのサボタージュで出席できなかった会議の議事録を取得して、サマリーにまとめて知らせてくれるところくらいまではやってくれそうな期待もあるが、それでいいのかどうか。

 つまり、人間の行動は、例えどんなにAIが賢かったとしても、そこにはAIの想像を絶する何かが常につきまとう。

 コンピュータを人間が能動的に使う道具としてとらえるのか、それとも、人間が受動的でいても、いわゆる至れり尽くせりを叶えてくれるような方向に育てていくのか。今はまだ、そのどちらの方向性を持たせるかを選べる段階でもあるように思う。

 コンピュータとの対話が、音声なのかキーボードなのか、画面のタッチなのかといったことは、枝葉末節であって、本当はもっと根本的な面から考える必要があるのではないか。もしかしたら、今、必要なのは、ロボット三原則ではなく、人間三原則なのかもしれない。