ニュース
Intel、深層学習フレームワーク「Chainer」開発のPreferred Networksと協業
2017年4月6日 17:02
インテル株式会社は、渋谷ヒカリエホールにて、人工知能(AI)におけるIntelのビジョンや最新ソリューション、取り組みについて、国内外の動向を紹介するイベント「インテル AI Day」を開催した。
基調講演には、米Intel データセンター事業本部 アクセラレーター・ワークロード事業開発本部長のBarry Davis氏、同社 データセンター事業本部 AI製品担当シニアディレクターのNidhi Chappell氏、同社 AI製品事業本部 副社長兼最高技術責任者(CTO)のAmir Khosrowshahi氏が登壇。
挨拶を行なったインテル株式会社 代表取締役社長 江田真紀子氏は、これから爆発的に大量のデータが生成される時代が到来する中、Intelはそれを大きなビジネスチャンスと捉えていると述べ、「データカンパニー」として同社の戦略的サイクルの中で、特にクラウド、AI、ネットワークを重点領域としているとアピールした。
次いで登壇したDavis氏は、AIはデジタル革命に匹敵する次世代コンピューティングの大きな波だが、まだ市場は黎明期であり、ハードやソフトの最適化で新たなAIが登場すると述べた。
IntelではAIにコミットメントしており、プロセッサから推論システムなどのソフトウェア、RealSenseによる奥行き認識など、他社にはないエンドツーエンドの製品群を提供できると述べ、AI事業本部も立ち上げ、AIコンピューティング時代をリードしていくとアピール。ベンチャー企業を含め多くの投資を行っているが、2021年には黒字化を目指すという。
同氏は、今回その一環として、深層学習(ディープラーニング)向けのオープンソースフレームワーク「Chainer」を開発する株式会社Preferred Networks(以下PFN)との協業を行なうと発表した。
ChainerはPythonベースの深層学習向けフレームワークで、PFNは今回の協業により、Intelアーキテクチャ上でのChainer実行性能の継続的な最適化を行なっていくほか、オープンソースライブラリ「Intel Math Kernel Library (MKL)」および「Math Kernel Library Deep Neural Network (MKL-DNN)」を基盤となるビルディングブロックとして採用する。
AI向けプロセッサ
Chappell氏は、クラウドやデータセンターで急激に需要が増加しているAIワークロード向けのプロセッサについて解説。
Xeon E5ファミリでは、Skylakeアーキテクチャ採用の次世代製品はAVX512命令により推論処理を高速に実行できると述べ、今年中盤にも出荷するとした。Xeon Phiでは、2017年後半にKnights Millを投入すると述べ、現行のKnights Landingから深層学習性能を最大4倍に向上させたという。
Nervanaが開発していたAI向けアクセラレータである「Lake Crest」は、ディスクリートのアクセラレータで、2017年中にシリコンを市場に投入するとした。同アクセラレータを統合し、ブート可能なXeonプロセッサである「Knights Crest」も予定しており、2020年までに現在の学習処理時間を100分の1に短縮するとした。
同氏は、強力なプロセッサを投入することで、同社のHPC分野での成功をAI分野でも再現したいと述べた。
そのほかの詳細は過去記事(Intel、2020年までに深層学習性能を今の100倍にする計画、32GBのHBM2を搭載したディープラーニング専用ASIC「Lake Crest」は2017年末に登場)を参照されたい。
Khosrowshahi氏は、IntelのAI向けソフトウェア製品について紹介。Intelでは前述のMKL-DNNのほか、「Machine Learning Scaling Livrary (MLSL)」、「Data Analytics Acceleration Library (DAAL)」、Intelに最適化したPythonディストリビューション、オープンソースのフレームワーク「Neon」などを提供しており、ソフトウェアもエンドツーエンドで提供するとアピールした。