森山和道の「ヒトと機械の境界面」
ロボットやAIなどの人工エージェントが人間社会を向上させるためには?
2018年9月12日 11:00
9月3日、国立大学法人電気通信大学人工知能先端研究センター(AIX)主催のシンポジウム「心ふるわせ、社会うごかすエージェントデザイン」が開催された。人工エージェントによる社会的なふるまいの設計に関する話題が、3人の研究者から提供された。
はじめに、AIXセンター長の電通大大学院 情報理工学研究科教授の長井隆行氏が、日本認知科学会での大阪大学高橋英之氏によるオーガナイズドセッションをきっかけに、東京でも同趣旨のシンポジウムを行なうに至ったと経緯を紹介した。電通大は2016年から「AIX(AIfor X)」を立ち上げて研究開発を行なっている。電通大内部での協業のほか、企業との共同研究も積極的に進めている。
人工エージェントは社会的ネットワークの問題の解決に役立つか
イェール大学の博士課程に在学中の白土寛和氏は「社会的ジレンマと知的エージェントによる解決法」と題して講演した。白土氏の前職場はソニーで、ヒューマン・ロボット・インタラクションの研究を行なっていた。現在はソーシャルネットワークの知識をどのように実世界に実装できるかをテーマに研究を進めており、オンラインのネットワークを使って社会学実験を行なっている。
ロボットを社会に導入するうえで、最終的には人と人とのつながりが求められていることがわかったという。たとえばロボットをある集団のなかに持っていって高評価だったとしても、それは、そのロボットが会話のきっかけになることが求められていたりするからだ。そういったことから白土氏はじょじょにロボットを直接導入することから、社会的ネットワーク自体に興味が移って、今日に至っていると経緯を紹介した。
現在、白土氏はアマゾンWebサービスの1つであるAmazon mechanical turkを使って集めたデータを、どのようなルールやパラメータが人に影響するかを調べている。
2017年5月には、人工エージェントのローカルノイズがネットワークの人間の協調を促進させるという研究を発表した。協調行動を評価するために使ったのは、グラフ彩色ゲーム。全プレイヤーがネットワーク上の隣人とは異なる色を選ぶというゲームだ。3色あり、パフォーマンスに応じて金銭がもらえる。これを全員が解けなければならないところがポイントで、そのためには協調行動が必要になり、協調のレベルをゲーム終了時間によって計測できる。
では実際の人はどのようにプレイするか。なかにはすぐに解いてしまう人もいるが、なかなか解けずにジタバタしている人もいる。そして、ひじょうに感情的な感想を持つ。このゲームを通じて、集団のなかのどこに集団協調のボトルネックがどこにあるのか誰にもわからない、本人にもわからない、ということがよくわかるという。
では、どのようなふるまいをするボット(人工エージェント)を使えば、集団協調レベルを高められるだろうか。各プレイヤーが局所的に最適な色を選んだとしても全体最適に至るとは限らない。局所的には最適な色を選んでいるプレイヤーのせいで逆に状態がスタックしてしまい、その状態から全体が抜け出さなくなってしまうことがあるのだ。これをいかに避けるべきか。
局所最適から全体最適を導くためにノイズをシステムに加えるという方法がある。これを社会的ネットワークに入れることで解決を促せるだろうか。白土氏は、0%、10%、30%のノイズ(ランダムな色選択)を持ったボットを設計した。それをネットワーク上に、ランダム、中心、辺境の3種類に配置して実験を行なった。さらに人だけ、色を固定したセッション、ボットだと明かしたセッションなどを行なった。
すると、10%ランダムな振る舞いをするボットを、ネットワークの中心に配置した集団が、もっとも早くグラフ彩色問題を解けるということがわかった。
ネットワークは毎回生成されるが、必ず解がある。彩色多項式のグラフは解が多いか少ないかはパッと見たときはわからない、解の多少は毎回違う。ボットは、解が少ない場合により有用だという。人はだいたい5%くらい局所的には最適ではない色を選ぶ。だがボットがノイズゼロだと人も引きずられて正しい判断をする。だが全体最適に至りにくい。ノイズ3割だとその逆だ。ノイズ10%がもっとも全体最適に至りやすいランドスケープとなっていたという。
局所的に解決不能な対立はネットワーク中心で起こる。だからボットは自分のところの対立だけではなく、自分のふるまいによってネットワーク全体の状況を変えて、人も問題を解きやすくする。これは、ボットであることを明らかにしても同じだったという。
ゲーム終了後のアンケート結果で、隣あった人の満足度を聞いたところ、解けたか解けなかったかをコントロールした状況では、ノイズ30%のボットの評価が低く、ノイズゼロがもっとも高かった。もっとも集団協調レベルを高くするのがノイズ10%のボットであるにもかかわらずだ。社会全体のことを考えたボットのデザインは、個人の満足度を高めるだけではそこに至らない可能性がある。
白土氏は「研究手法としてもボットを使った社会実験は面白い」と述べた。ミクロな状態がマクロな状態にどのように影響を与えるかがわかるからだ。
より難しい集団行動の研究も進めている。互いにコストとベネフィットがある、相互協力(社会的ジレンマ)に関するものだ。相互協力は、お互いに自分のことだけを考えて非協力を選ぶと、協力した場合に比べると、結局、もらえる報酬が少なくなってしまうところがポイントだ。協力と非協力は個人の特性ではなく環境条件による。それを解決するためにボットを使えないかというわけだ。
白土氏は「協力行動におけるネットワーク効果の個人差」に注目している。人はみんな異なり個人差のばらつきが大きい。その個々の行動モデルを推定し、サポートできる適応型ボットにより、集団の協力関係を向上させようとしている。
実問題に近いところということで、災害のときに人がどれだけ協調行動をできるのかも調べている。災害時は、信頼できる情報交換ができれば人命が助かるかもしれない。いっぽう、普段よりも協調行動が難しくなる側面もある。
これには避難ゲームというものを使っている。なにもしなければ2ドルちょっともらえる。だが災害がくるとなにももらえない。もし逃げれば1ドル払ったかわりに災害に巻き込まれなくなる。自分のほかに災害に正しい行動を行なった人が多くなると、より高報酬がもらえる。つまり、じっとしていることと、正しい行動をすることの両方にインセンティブが与えられている。災害がくるかどうかを情報交換することがゲーム上のポイントだ。
ネットワーク上で、ランダムに選ばれた1人には正しい情報が与えられる。参加者は、少なくとも1人が正しい情報を持っていることは知っている。1回逃げると情報の交換はできない。各人は4人ずつと繋がっている。
実際の実験の結果、正しい情報はネットワークが大きくなればなるほど伝わりにくいことが明らかになった。また、逃げるという行動をとるには、複数から情報が来ないとなかなか行動に繋がらなかった。互いにまったく繋がっておらず、まったくのカンで行動するときは、さらに逃げなかった。「安全だ」という情報は、ネットワーク構造にかかわらず、常に「危険だ」という情報を上回ってしまうという。個人のリスクの選好よりも、周囲のコミュニケーションに依存して行動を選択してしまうという。
白土氏は「重要なことはつながり。社会的ネットワークでも触媒のような働きを果たすボットをデザインする方法はあるんじゃないかと思う」と締めくくった。
空気のような、お地蔵様のようなロボットが人の心を変える?
大阪大学大学院基礎工学研究科特任講師の高橋英之氏は「みんな昔はこどもだった-エージェントに感じる心とそれが引き起こす社会行動変容-」と題して講演した。「真心」や「気持ち」という言葉は多用されているが、「それってなんなの?」と考えると難しい。「愛」は機能的な意味に還元してしまうと陳腐だ。人工知能は外から価値を与えるとうまく課題をこなせるというが、それは人間も同じだ。高橋氏は、他人にも心があるということを証明したい(他我問題)と考えて研究を行なっているという。
人間は簡単に人工物にも心を感じる。たとえばぬいぐるみを痛めつけている動画を見たときと人間が痛めつけられている動画を見たときで、人の脳の反応は似たような反応をする。
同じゲームであっても、対戦相手がロボットだと思うか、人間かと思うかで行動が変わる。ずっとコンピュータと対戦していても、被験者の信念を操作して実験を行なうことができる。被験者の行動の複雑さを定量化してみると、相手を機械だと思うか人だと思うかで手の複雑さが変わる。
また、実験前にロボットと会話させたときに、ロボットの視線を追従する人のほうが手を複雑にする傾向があった。面白いことに、ロボットに生命感を感じているかどうかとはまったく関係がなかった。脳を見ると前部島皮質の活動と相関があった。
心の知覚は、1つの尺度だけではなく、多元的であることも知られている。さまざまなロボットと対話のあと対戦してもらったところ、人とアンドロイドのほか、コンピュータに対してエンロピーが上がった。つまり手が複雑になった。コンピュータについてはランダムなプログラムコードを表示するようなインターフェイスを示したことが人の心に効果を与えたらしい。
各エージェントに対する「マインド・ホルダー性」と「マインド・リーダー性」を定量化すると、手の複雑さは「マインド・リーダー性」と相関があった。それぞれに対応する脳の部位も綺麗に分かれた。また第3の軸もあるかもしれないと考えて、新しい実験も進めているという。人は無意識的に相手と自分の距離を測っているらしいという。
他人に心を感じることはすべて幻想なのか。人はいろいろなものを他者と共有している。高橋氏は、共有しているものが存在していると、心が通じるように感じるのではないかと考えている。いっぽうロボットと人とは共有している部分が少ない。人間の集合知に接続しているか・していないかが、心を感じるか感じないかに関係があるのではないかと述べた。
また、「真の共有」では新しい情報が生まれてくるが、演技にすぎない「偽の共有」では新しい情報が生まれて来ない、人間とロボットのあいだに本当の共有かどうかを判断する上で、共成長性と情報創発が重要な指標となる、それを定量的に示す鍵が共成長性にあると考えているという。
そして、ロボットを人間のレプリカとして作る必要はない、ロボットを情報創成を促進する存在にできないかと最近は考えているそうで、ミヒャエル・エンデの『モモ』のように、人の自己開示(悩みなどの独白)を引き出し傾聴してくれることで自分の意思が明確になり、希望がわくようなロボットを作りたいと述べた。これまでの実験では、ネガティブであればあるほど、ロボットに相談したい傾向があったという。自閉症の方は人間より小型ロボットへの開示を好む傾向があった。
自分を開示するのにも良いところをアピールする自己呈示と、プライベートな自分をさらけだす自己開示とでは異なる。脳のなかで社会的報酬をコードしていると考えられる線条体の活動を測ると、社会的主導権をもったり、褒めてもらったりすると線条体の活動が上がる。自己開示をしているときにも線条体の活動が上がる。
先行研究では人が見ている条件で自己開示すると線条体の活動が上がるという結果があったが、同じようなことをロボットを使ってやったところ、ロボットが見ている条件においてのみ、被験者は自分のことをネガティブに評価することがわかった。また、そのような人は線条体の活動が上がっていた。
つまり、世間の評価とは違う自分のネガティブ評価を晒すことが報酬になっているということだ。高橋氏は、これはロボットを入れることで多様性が増したからではないかと考えており、「これは社会を局所最適解に収束させないための埋め込まれた報酬なのではないか」と述べた。
このような研究を背景に、高橋氏はいま企業との共同研究も進めている。上から目線で価値観を与えるのではなく、自発的に気づきを生じさせることで全体的に社会的な変容が生まれるような、「スーパーお地蔵様」のようなものを作りたいと考えていると述べた。そのためには研究者自身が当事者性を維持することが重要だという。
アバターチャット上でのいじめ経験相談の現状 オンラインソーシャルサポート
株式会社サイバーエージェント 秋葉原ラボデータマイニングエンジニアの高野雅典氏は「仮想空間における自己開示とオンラインソーシャルサポート:アバターチャットサービスにおけるいじめ経験の告白と相談」と題して講演した。現在、多くの人がWebサービスを使っており、Facebookに至っては月間アクティブユーザーが20億人(全人類の28%)に達している。
Webでは炎上やネットいじめ、フェイクニュースそのほか良い現象も含めて、さまざまな社会現象が発生している。高野氏らは、それらの課題解決のためには原理を知る必要があるということで研究を進めているという。
Webの普及は人の社会性や社会現象自体に影響するし、人がインターネットを使わないという選択肢は当面考えられない。たとえば、特定の対象に対して批判が殺到する「炎上」では、直接的・間接的な問題が発生する。だが、じつは炎上に参加しているユーザーはごく少数、0.5%くらいであることが明らかになっている。友達関係の作り方や維持の仕方もWeb、SNSによって変化している。
ではどう変わったか。仲の良い友人数は変わらないが、顔見知りくらいの人たちの数が爆発的に増えているという。つまり、人間関係の一番外側だけが爆発的に増えている。コミュニケーション満足度も調べると、方式によって違いがあることがわかっている。
無意識の差別行動の可視化もWebによって容易になっている。たとえば、『ビッグデータの残酷な現実』に紹介されている事例だと、アメリカの出会い系サービスでのアンケート結果と行動ログを見ると、アンケート結果では差別主義者とはデートしないと多くの人が答えているにもかかわらず、行動ログはそうはなっていなかった。また、検索エンジンの検索結果は間接的に人の行動傾向を表しており、言語ごとの女性の身体的ステレオタイプ傾向を分析することができる。
未成年事犯も増えている。サイバーエージェントでも東大の鳥海研究室とも共同して研究・対策を進めている。これまでの研究によって、性的接触が目的の成人は、早い段階で住んでいる場所や性的興味などを聞き出そうとするといったパターンがあることがわかっている。
ソーシャル・サポートは、共感・愛着・尊敬や、問題解決のために有用だ。オンラインにも「Reddit」などのソーシャルサポートの場がある。人は悩みを吐露し共感してもらうだけでも救われたような気になる。ソーシャルサポートを受けるためには自己開示が必要だが、深刻な悩みほどそれは難しい。そのため、匿名性が重要だと考えられている。またネットには常に誰かしらがいるので安心感が得られやすい。
一方、ノンバーバルコミュニケーションは、テキストコミュニケーションが主流のWebでは少ない。だがアバターチャットでは仮想身体を扱えるので、ノンバーバルコミュニケーションが活発になる。
いじめ被害者のオンラインソーシャルサポートでは、2017年に株式会社LINEと長野県などが、試験的にいじめ相談窓口を設置するといった試みを実施している。いまの子供達にとっては電話よりもLINEのほうが身近で親和性の高いコミュニケーションツールであることを反映していると思われる。
高野氏は、サイバーエージェント「ピグパーティ」でのソーシャルサポートに焦点をおいて分析を行なった。ピグパーティはスマホアプリとして提供されており、ユーザーは好みのアバターを作成して、ピグパーティが用意した「ルーム」でチャットする。ユーザーは若年層が多い。比較的、現実世界とは切り離された社会関係が構築されていると考えられている。そのなかから、いじめ告白会話のデータをとり、統計処理を行なった。会話数は1,130件、発言数は28,772、告白者は1,025人、聞き手は6,613人。
ルームには種類があり、出入りが制限されるプライベートルームのほか、大人数が入れるパブリックルーム、また一時的なテンポラリルームがある。このうち、プライベートとテンポラリルームでの告白が多かった。
本当に知りたいのはユーザーのWell-beingだが、それを直接知ることはできないので、行動ログから間接的に判断することになる。告白の結果、利用時間が増えれば、Well-beingに良い結果があったと判断する。回帰分析を行なったところ、プライベートルームでは自己開示とソーシャルサポートがうまくいったが、テンポラリやパブリックルームではあまりうまくいかなかったことが推察された。
さらにテキスト分析をして、通常の会話と比べて、いじめ告白に特徴的なトピックを抽出した。会話の時間変化を見たところ、パブリックではあまり取り合ってもらえていなかった。いっぽう、プライベートルームでは共感的なやりとりが行われているように見られた。また、人の流動性が高く、知らない人も多いテンポラリールームでは、罵り合いになってしまっているようなケースもあったという。
アバターのジェスチャーを見ると、プライベートルームでは、いじめ被害者は号泣を多用しており、最後はポジティブなジェスチャーを使っていることが多かった。絵文字でも同様だった。要するにプライベートルームで少人数に対して自己開示が行なわれた。これには普段から知っていることと、現実でのつながりがないことの両方が貢献したのだと思われる。アバターを使うことで、聞き手の自分に対する反応を確認しながら話すことができたのではないかという。
ではソーシャルサポートを促進するにはどうすればいいか。自己開示ではきっかけが重要なので、そこに対して、たとえばふだんから他愛ない話題をシステムから提供するような機能をおいておき、そこに自己開示とソーシャルサポートに適した状況に、自己開示を促すような話題提供をする可能性や、話題に応じたノンバーバルコミュニケーションの提案なら考えられるとした。