ニュース

AI時代の到来にむけては社会的セーフティーネットが必要になる

~Intelの考える政府機関の持つべきAIポリシー

米Intel アソシエイト・ゼネラル・カウンシル兼グローバル・プライバシー・オフィサー ディビット・A・ホフマン氏

 インテル株式会社は3日、報道関係者向けにAIポリシーに関するラウンドテーブルを開催した。

 登壇した米Intel アソシエイト・ゼネラル・カウンシル兼グローバル・プライバシー・オフィサーのディビット・A・ホフマン氏は、AI(人工知能)はこれまで未解決だった社会の抱える課題の解決など大きな可能性を秘めているが、現在はすでに技術開発段階を超えて、実装する段階に至っており、AI時代に突入していると述べ、AIをどう使うかを学んでいく段階にあるとした。

 そういった意味で、現在のAIを取り巻く状況はインターネットの黎明期と同じように、経済のさまざまなセクターに導入されようとしている段階にあるとして、AIでは、サイバーセキュリティの大きな課題を抱えているインターネットと同じ間違いを犯すべきではないと説明。

 日本政府はAIに関する方策として、大規模かつ複雑な社会的課題への対処、経済成長の促進、国民の不安払拭、国際化促進という4つの主要目的を定めている。

日本政府のAI政策とIntelのAIビジョン
AIポリシー

 IntelではAIについて、革新的AI、信頼できるAI、インクルーシブなAIと3つの要素をポリシーとして定めている。

 革新性の面では、政府が取り組むべき点として、AIの基礎研究資金を調達するだけでなく、省庁がAIソリューションを使えるようにするといった、実装に向けた投資も行なう必要があるとした。

 Intelでは、AIで大きく課題解決が進む分野として医療分野が筆頭になると考えており、医療費の削減とより多くの人命救助という2要素の両立が可能になるという。またAIが医師を置き換えるのではなく、AIの活用でより多くの時間を患者に費やせるようになることで、良い治療や解決策の提供につながるとの考えを示した。

革新的なAI
医療分野における活用

 信頼性については5つの要素を定めており、信頼できるデータ、国民のプライバシー保護、堅牢なセキュリティ、透明性と説明可能性、グローバルスタンダードのサポートを挙げた。

 AIの信頼性には学習元データの信頼性が関わるため、政府が所有する高信頼性のデータを公共へ責任を持って開放することが重要になるという。

 透明性と説明可能性については、AIの実装が意図したかたちで行なわれているのかを個人レベルで影響を見る必要がある。

 たとえば個人情報保護の観点から、国民から不要なデータを削除してほしいと要望があれば削除を行なうべきだが、AIが特定の国民に社会サービスを提供すべきでないという判定をした場合に、削除済データを学習させた結果の場合に判断理由がわからなくなるといった問題が発生しうると述べ、維持すべきデータは保持することで説明性を維持が可能になると語った。

 ホフマン氏は、プライバシー保護機械学習(Preserving Privacy Machine Learning)についても紹介。たとえば医療分野などではプライバシーの面で患者の情報などを共有できないが、マルチパーティ計算や準同型暗号、分散データに基づいた機械学習といった技術を用いることで、中身を秘匿した状態でモデルの学習データとして扱える技術が登場しているとした。

信頼できるAI
プライバシー保護された機械学習(Preserving Privacy Machine Learning)

 インクルーシブなAIについては、社会にAIがサービスを提供するとき、より多くの人を含むかたちになるよう倫理的な設計を行なっていくことを指しており、責任あるかたちで提供しているかどうかも重要な点とした。

 同氏は、AIによって新たな仕事も創出されるが、同時に既存の仕事が失われることも事実であると述べ、労働力には破壊的な流れが起こると説明。

 その上で政府はAIを活用できる労働力への投資を進めるべきであり、電気技師や配管工のような高度なITを活用していない技術者などに向けて、トレーニングを提供して業務でAIが活用できるような体制の構築が必要になるとした。

 また社会的なセーフティーネットの構築も重要で、従来のように1つの仕事を学んで一生その仕事を続けるという時代が終わるというときに、失われる雇用のための安全策としてどういうサポートを提供できるのかを考えなければならないと語った。

インクルーシブなAI
インクルーシブなAIの実現に向けた要素