山田祥平のRe:config.sys

半端なAIならいらないヒトの倫理

 MicrosoftのVP、David A. Heiner氏(プライバシー、通信、人工知能、アクセシビリティ、オンラインセーフティ分野規制関連担当)が来日、同社が考える信頼できるAI(Trusted AI)の現状、課題と今後の展望について説明した。公平姓、説明責任、透明性、倫理を柱にした同社の考え方は、まさにロボット三原則を彷彿とさせる。

AIとて体験から学ぶ

 ちょっと前のこのコラムで、AIの「愛」について取り上げた(記事:AIと言う名の愛)。そこでは、今必要なのは、ロボット三原則よりも人間三原則なのではないかと締めくくった。さらに立て続けに、AIとエージェントの関係性についても取り上げている(記事:反転コマンド行ってQ)。Heiner氏の説明は、これらの考え方をさらに具体的なものとして解説したもので、実に興味深いものだった。

 Heiner氏は、AIによって今後、社会的に倫理上の課題が出てくるに違いないと指摘する。人間との対話を受け持つエージェントはよりリッチになり、人とのインタラクションができるようになるが現時点ではまだ原始的であるとしながらも、近い将来、今は人にしかできない能力を機械が身につけるようになるという。

 その能力を機械はどうやって学ぶのか。体験から学ぶのだ。だからこそ、多くのデータを入手できることが重要になる。学んだパターンが正しいものであれば、それは将来に向けても正しい可能性が高い。そして大量のパターンからは、過ちも学ぶことができる。そういう意味ではAIは人間の能力を置き換えるのではなく拡張するのだとHeiner氏は言う。今後、IoTが浸透していけば、機械が収集できるデータは、今とは比較にならないくらいに多くなる。それがAIの進化を加速する。

 今後はAIエージェント同士の対話も可能になる。たとえば自分のAIアシスタントとホテルのAIエージェントのような関係だ。エンドユーザーが出張や旅行に際してホテルを予約するようなときに、本人の好み、仕事や遊びの種類に応じた宿泊施設をエージェントが探すわけだが、そのときに、宿泊施設側のエージェントとの対話が行なわれる。コンピュータはやらなければならないことを忘れないし、ユーザーの好みも完全に把握しているから、まさに優秀な執事のように働いてくれる。

 だが、そのためには、人間側がAIにすべてをさらけ出しておく必要がある。メールもメッセージもすべてを読ませるパーミッションを与える必要がある。リビングルームでの家族との会話をすべて記録する権限も必要かもしれない。当然、スマートフォンの操作や通話内容も把握しておいてもらわなければなるまい。

 もし、このようにして、AIに何かを任せることで人間とAIが関係するのであれば、人々がその存在を信頼できるかどうかが重要になるとHeiner氏は言う。それがなければAIが何をしているのか、どんな判断をしているのかをきちんと把握しなければならなくなる。そんなことをするくらいなら自分でやったほうがいいということにもなりかねない。

社会のモデリングの是非

 AIに潜む危険な要素としては倫理、道徳観の問題もある。なぜなら、データを入手することで学習していくコンピュータは、たとえば社会の中に人種差別があれば、それを事実として学習し、機械もそうなってしまうからだ。機械は社会をモデリングしてしまう。そしてそのことが、世の中を悪化させる可能性もあるわけだ。

 Heiner氏は、検索エンジンで「CEO」の画像を検索してみてほしいという。やってみればわかるが、そこに登場するのはほとんどすべてが男性で女性はほとんど見つからない。 これは世の中の実情に合致しているだろうか。ジェンダー差別などの要素がそこにないのかどうか。Googleの検索結果を導き出すアルゴリズムに、男性を選ぶという意図が介在するかどうかはわからないが、事実として、男性の写真ばかりが出てくることに疑問を持つ必要はありそうだ。

 機械はささいな事実から高度な推論をする。それはプライバシーの問題にも繋がるともいう。こちらは米国の大手スーパーが未成年の少女に送った妊娠に関する商品広告を例に説明があった。

 そんな広告を送ってくるスーパーに、少女の父親が苦情を申し立て、スーパー側も謝罪した。ところが数日後、父親がスーパーを訪ね、謝るのは自分の方だったという。実は、スーパーは少女の買い物履歴をデータとして分析し、香りの少ない化粧品を選んだりするようになっていることから、妊娠の可能性を推論し、そして、それは実際、事実だったというわけだ。毎日いっしょに暮らす家族が知り得なかった事実をAIが突き止めた例だ。

 こうして、人間には不可能な分析、そして、判断を機械がするようになる。それがAIの時代だ。

 将来的にAIは人々の仕事を奪うかという議論がなされることも多い。Heiner氏は、歴史を振り返れば奪うこともあれば生むこともあったという。

 1900年代以降、街角にあれほど溢れていた馬車は20年間でなくなったが、その代わりにデトロイトで多くの雇用を生んだ。AIについてもそうなるかどうかはまだわからない。懸念をもっている人もいるとHeiner氏。考えなければならないことは山積みだ。

Cortanaの将来はどうなる

 Heiner氏は、ジャーナリストとのチャットによるインタビューに堂々と応え、最後までAIだとは気がつかせなかったAI、中国女性AIシャオナについても言及した。「彼女」についても、以前、ここで紹介したことがある(記事:シャオナ、君がコルタナだったのか)。

 日本版シャオナとも言えるのがりんなで、りんなとシャオナは、Windows 10に搭載されたCortanaの源流になっている。

 りんなは、先日から原宿の竹下通りにある若者向けのアパレルショップWEGOの実店舗で、アルバイトを始めた。アルバイトとはいっても、実際には、サイネージディスプレイ上に表示されたりんなが、カメラで撮影した客の姿をもとに、ファッションチェックをしてくれるというものだ。原宿の店舗でアルバイトをしているはずなのに、Twitterには、まだ家でうろうろしているつぶやきをする。矛盾しているところが、ディズニーランドのミッキーマウスと違う。

 そのりんなのアルバイトのために、技術者は、たとえば、ダッフルコートの写真を数千枚読み込ませることで、りんなにダッフルコートの知識を与えたらしい。今回の試みでは、りんなはカメラがとらえたユーザーの姿から新しいことを学ぶことはない。学習はしないのだ。

 また、時系列についても認識はない。そのファッションは5年前に流行ったものだから古い、という判断はできない。カメラが捉えたユーザーの出で立ちから、どのような洋服を着ているのかを認識し、それを指摘するだけなので、ちょっとつまらない。アドバイザーというには、ちょっと稚拙だ。

 だからといって、昨年(2016年)話題になった米国版のTwitterアカウント「Tay」が、人種差別的な学習を繰り返して暴言を吐くようになり、Microsoftがこのアカウントを閉鎖したことようなことを考えると、判断は難しい。Heiner氏は、この事件についても言及した。

 いずれにしても自動車が馬に20年間で取って代わったように、法律の整備さえ進めることができれば、ドッグイヤーで考えて3年間でAIは浸透し、市民権を得る。今の様子を見ていると、東京オリンピックはAIが仕切っているようなことだってありえない話ではない。

 だからこそ、その進化を注意深く見守り、おかしな方向に進まないような世論を形成する必要がある。半端なAIほど怖いものはない。