ニュース
"誰もが使える"Microsoftの最先端AI技術の一端が開示
~「人工知能と社会」をテーマにした国際シンポジウム「AI and Society」開催
2017年10月11日 00:00
「人工知能と社会」をテーマにした国際シンポジウム「AI and Society」が2017年10月10日から11日の日程で東京・虎ノ門にて開催されている。主催は東京大学次世代知能科学研究センター。国内外の産業界とアカデミアの人工知能分野のオピニオンリーダーが最先端技術と社会的インパクトについて議論する有料イベントで、現在の人工知能のビジネス活用の実態や、さらに将来を見据えた議論などが行なわれている。
ここでは、1日目にキーノートレクチャーの1つとして行われた、日本マイクロソフト執行役員最高技術責任者である榊原彰氏によるマイクロソフトリサーチの取り組み紹介についてレポートする。
Microsoftでは「AIの民主化」がキーワード
榊原彰氏は「マイクロソフトリサーチとAIテクノロジー」と題してMicrosoft Researchについて紹介した。世界に10カ所以上の拠点を持ち、設立25年を超えたMicrosoft Researchは設立当初からAIに取り組んできた。昨年(2016年)、社内に散らばっていた研究者を集めて「AI and Reserch」というグループに統合した。開発者は7,000人くらいだという。
Microsoftでは「AIの民主化」をキーワードに掲げている。誰にでもリーズナブルなコストで使えるAIを目指しているからだ。また「AIEThER(AI and Ethics for Engineering & Research)」というAIに関する倫理やエンジニアリングに関するアドバイザリーパネルをつくっており、なにかするときにはかならずここで議論されるという。
AIの普及に向けての取り組みとしてはAmazon、Facebook、Google、IBM、Microsoftが連携している「Partnership on AI」を紹介。今後、Appleも加わる予定で、AIの倫理やベストプラクティスのシェアを行ない、今後、各社のAI同士が協調する世界を実現するためのプロトコルの取り決めなどを協議しているという。このほか、イーロン・マスクがスポンサーになっているOpenAIとも提携していると述べた。
AIのサービス化としては5つの領域にフォーカスしているという。パーソナルアシスタントの「Cortana」、チャットボット、認識や翻訳のためのAPI、機械学習と開発環境の提供、深層学習フレームワークの提供だ。
同社の機械学習サービスは、学習済みAPIを使うことですぐにコグニティブサービスを利用できるようなものもあれば、Rを使った統計分析や、さまざまな統計ツールを使うための関数をドラッグアンドドロップで組み合わせることができるAzure Machine Learning Studioなどから構成されていると紹介した。
コグニティブサービスのAPIは29種類を提供している。榊原氏はMicrosoftのクラウドプラットフォームを使ったインテリジェントシステムの例として、マクドナルドのドライブスルーに使った実例を示した。音声認識を使って注文内容をリアルタイムにテキスト化して、オーダー表を組み立てていくというものだ。「ケチャップ抜き」とか「コーヒークリーム2つ」とか、いろいろなオプションにも対応できる。
「seeing AI」は視覚障害者のスマートグラスを使うことで外界で何が起こっているのかを認識して音で伝える技術だ。大きな物音がしたときにそこで何が起こっているのか、あるいは対話しているときに相手の表情を認識したり、レストランのメニューを認識して読み上げることができる。スマートグラスではバッテリーが保たないため、現状はiPhoneのアプリとして開発されており、英語版は誰でもダウンロードできる。
FPGAベースの深層学習プラットフォーム、マインクラフトを使ったAGI構築の試みまで
最後に深層学習関連の研究として、いくつかのプロジェクトが紹介された。「CNTK(Cognitive Toolkit)」はDNN、RNN、LSTM、CNN、DSSMなどさまざまな機械学習技術を扱うための統合フレームワークで、多様な深層学習アプリケーションに対応している。効率よい学習ができ、今ではオープンソースとして多くの用途に使えるようになっているという。
具体例として「eSmart Systems」というノルウェーのドローンを使った電線点検例が示された。101層のCNNを使って、破損などを自動認識することができるという。
「Project BrainWave」はリアルタイムAI用の深層学習アクセラレーションプラットフォーム。FPGAを使って深層学習処理を行なう。専用のDPUを使うのに比べてFPGAを利用することでさまざまな種類のデータに対応できるという。
また、「Project Malmo」というAGI(汎用AI)実現のための手法構築を目指す研究プロジェクトも紹介された。ゲーム「Minecraft」を使って、ゲームのなかで行動するエージェントを利用して、AGIを実現するために必要な、多様な事象の提供や強化学習などの研究を行っている。
最後にMicrosoftのMR HMD「ホロレンズ」のこれからの可能性が紹介された。次世代のホロレンズには、ホログラフィック処理装置「HPU」にAI用コプロセッサを搭載した「HPU 2.0」とすることで、より繊細なジェスチャーを認識したり、仮想空間上のエージェントが実空間にあるテーブルにもたれるとか障害物を避けたりできるようになると語った。