笠原一輝のユビキタス情報局
IntelがAI向けプロセッサをCPUに統合する可能性を示唆
2017年10月26日 13:06
米Intelは、米国ニューヨーク州ニューヨーク市内の会場において、プライベートイベント「Intel Shift 2017」を10月24日(現地時間)に開催した。Intel Shiftは、同社のデータセンター事業本部が管轄するAI(Artificial Intelligence:人工知能)、データセンター、エンタープライズITなど、大量のデータを処理するXeonスケーラブル・プロセッサ、Nervanaブランドで展開する深層学習向けのプロセッサとなるIntel Nervana Neural Network Processor(NNP) などを利用したソリューションについて説明する場として用意されたイベントとなる。
イベントの講演で、Intel副社長兼AI製品事業部CTOのアミール・コスロシャヒ氏が、NNPを将来的にCoreプロセッサなどのクライアント向けCPUに統合する可能性を示唆した。AppleのA11 Bionic、Huawei TechnologiesのKirin 970などNNPを実装したスマートフォン向けSoCが登場しつつあるなか、今後はその波がPC向けCPUにも広がっていく可能性が高くなってきた。
顧客に対して戦略やソリューションなどを説明するイベントとして行われたIntel Shift
Intel Shiftは、Xeonスケーラブル・プロセッサやNNPを利用したソリューションに関するプレゼンテーション、座談会などが行なわれ、Intelの顧客となる大企業やクラウドサービスプロバイダなどにIntelのソリューションをアピールする場となった。
Intel副社長兼Xeonプロセッサ/データセンターマーケティング事業部長のリサ・スペルマン氏は「これまでIntelのイベントと言えば、ここニューヨークでも7月にXeonスケーラブル・プロセッサの発表会を行なったとおり、伝統的な製品発表会といった趣のイベントが多かった。しかし、今回はより顧客のソリューションにフォーカスし、ITをどのように変革していくのかにフォーカスしたイベントにした」と、今後このShiftをIT変革を訴える場として展開していきたいと述べた。
Intelは2017年から従来開発者向けに行っていたIDF(Intel Developer Forum)を収束させており、全社的なプライベートイベントは行なっておらず、こうした事業部単位でのイベントを行なっている状況だ。今回のIntel Shiftはデータセンター事業本部(DCG、XeonやXeon Phiなどを管轄している事業本部)が主導しており、XeonやNervanaといった製品を利用して、伝統的なITをどのように変革していくかといったテーマで各種の講演などが行なわれた。
AIやデータアナリティクスが産業構造や雇用も変える
イベント冒頭では、マサチューセツ工科大学(Massachusetts Institute of Technology)の主任科学者のアンドリュー・マカフィー氏とIntel副社長兼セール&マーケティング事業本部産業セールス事業部長のシャノン・プーラン氏が基調講演を行なった。
マカフィー氏は、企業内で根拠なく自分の意見を強硬に主張する人のことを「HiPPO」(Highest Pace People Opinionの略、ちなみに英語でhippoはカバのことで、そうした時代遅れの主張をする人のことを揶揄する意味があると思われる)と命名し、"企業内オタク"であるエンジニアとの争いがあると指摘。そして、HiPPOがそうしたオタクが開発するアルゴリズムなどを阻害して、イノベーションを起こりにくい状況を作り出していると述べた。
人間の判断と機械的判断の対立の例として、GoogleのAIコンピュータであるAlphaGoが、韓国の碁の名人に勝った例を挙げ、「3千年の歴史を持つ人間の碁を、AlphaGoは簡単に破ってしまった。AlphaGoと戦って敗れた中国の碁の名人が人類は誰も碁の真髄に迫っていないと言っていたが、機械は人間よりも優れた判断をしている状況だ」と、機械学習や深層学習に代表されるAIがすでに人間よりも先に進んでいる状況があると説明した。
こうした状況の中でビジネスの競争条件も変わりつつある。以前は業界によって勝利の方程式は違っていた。しかし、ITの導入によりそれは替わりつつある。たとえばAppleが2007年にiPhoneを導入して以降、アプリケーションの流通はAppleを必ず経由するようになった。しかし、2008年の段階では500しかなかったアプリも、今ではその1,000万倍に増えており、多くのプレイヤーが参加するようになっている。業界の構造は大きく替わり、プラットフォームを抑えたAppleがスマートフォン市場ではダントツの収益性を実現した。
また、AirBnBは完全に証明された信頼関係ではなく、より軽い信頼関係に依存するという従来の常識を壊すシステムを構築することで大成功を収めた。市場環境が変わりゆく中で、それに適合したプラットフォームを作っていかなければビジネスに勝ち抜くことはできない、とする。
続いて登壇したIntelのプーラン氏は「S&P 500の半分の企業は今後10年で新規の企業に置き換えられると予測されている。また、1億5,000万の知的労働者の仕事が2025年までに別の仕事への転換を余儀なくされる。機械学習や深層学習の普及によりそうした変化が起きていくだろう」と述べる。
その上で「IntelはかつてはPCオンリーの企業だと言われていた。しかし今はデータオリエンテッドな企業に進化しており、今後すべてのデバイスがネット常時接続になり、自動運転、IoTの普及など大きな変化が起きる。そうした世界ではテクノロジーはすべての基礎となる。それを活用してどのように次世代ビジネスを回していくかが重要になる」と説明し、東京での電力規制緩和による電力会社の競争促進や中国の小売業での事例、自動運転の事例などを挙げ、データアナリティクスや機械学習や深層学習を利用したAIの普及により、ビジネスの世界が大きく変わっていくだろうと指摘した。
Intel Nervana NNPの強みは訓練と推論の両対応
イベント後には、Intel副社長兼Xeonプロセッサ/データセンターマーケティング事業部長のリサ・スペルマン氏、Intel副社長兼 I製品事業部CTOのアミール・コスロシャヒ氏が報道関係者からの質問に応じた。
スペルマン氏は同社の深層学習のソリューションについて、従来はXeon/Xeon Phiを中心としたソリューションを訴求していたが、今後は同社が先日、今年中に出荷する予定であることを発表したIntel Nervana Neural Network Processor (NNP)を中心にすえて深層学習向けのソリューションとして訴求していくことを明らかにした。
Nervana NNPは、開発コードネーム「Lake Crest」(レイククレスト)として開発されてきた製品で、2016年11月にIntelがサンフランシスコで行ったAI Dayで発表(Intel、2020年までに深層学習性能を今の100倍にする計画参照)された深層学習に特化したNNPだ。
詳しくは昨年の記事(加速するIntelの深層学習ソリューション)を参照していただきたいが、Nervana NNPはもともとIntelが2016年8月に買収したNervana Systemsが開発していたテンソルベースのアーキテクチャを採用したNNPで、12個のプロセッサクラスタ、32GBのHBM2メモリ、Intel独自のインターコネクトとなるICL(Inter-Chip Link)を利用して複数のプロセッサを接続してスケーラブルに構成できることが特徴。同じ性能で深層学習の演算をさせた場合、GPUやCPUに比べて圧倒的に消費電力が低い。
Intelに統合される前のNervana Systemsの幹部で、現在はIntel AI製品事業部のCTOに就任したコスロシャヒ氏はNervana NNPの特徴を「高度にスケーラブルで、広帯域のメモリを備えており、低消費電力で深層学習の訓練と推論の両方を行なうことができる」と説明する。たとえば演算器の数を減らすなどして、推論専用のNNPを作ったり、逆にICLで複数のNNPを接続して巨大な演算装置として構成して性能を引き上げることが可能だ。
第1世代のNervana NNPはTSMCの28nmプロセスルールで製造されている。これはIntelに買収される前から開発が始まっており、第1世代はTSMCの28nmを前提に設計されてきたためであり、製品化を急ぐのであればIntelのプロセスルールに移行し直すことは時間の無駄だと判断したからだという。
ただし、次世代ではIntelのプロセスルールに移行する。どの世代のプロセスルールかは明らかにしなかったが、次世代以降では22nmや14nmといった、より進んだ世代のIntelのプロセスルールで製造する計画だ。
将来にはクライアント向けプロセッサに統合も
また、コスロシャヒ氏は、競合になると見られるGoogleのTPUや、NVIDIAのCUDAを利用したGPUなどとの比較や、それらと比べたNervana NNPについても言及した。
TPUとの比較では「私はTPUの専門家ではないので、あくまで一般論として聞いて欲しい」と断った上で、「TPUはもともとGoogleが音声認識の問題を解決したくて設計したプロセッサ。音声認識のために、データセンターが倍になってしまっていたからだ。そうした特定のワークロードにフォーカスして、よりシンプルなアーキテクチャを採用し、DDR3のような既存のメモリを採用することで問題を解決することができた。しかし、それが汎用プロセッサとして最適かと言えば、スケーラブルでもないし、メモリ帯域も十分ではない」とする。
GPUとの比較では「GPUの課題はスケーラブルな仕組みとメモリ容量の限界だ。たとえばXeonではメモリは1TBまで実装できるが、GPUはそうではない。また、GPUをスケールする場合には、1つのGPUのレジスタファイルと他のGPUのレジスタファイルでやりとりをしないといけない。メモリ階層も課題だ。L1、L2、L3、ローカルメモリ間でやりとりをしないといけない」と述べ、スケーラビリティとメモリ帯域などの観点でNervana NNPのような深層学習に特化したプロセッサの方が優位性があるとした。
NVIDIAのCUDAが深層学習開発者にとっての優位性なのではという質問に対しては「われわれが調査したところCUDAを使ってDNNを構成するととても遅い。CUDAは非常に古い技術であり、それをcuDNNのような新しいライブラリを追加することでDNNを構成している。われわれの認識では、CUDAであろうが、IntelのMKLであろうが、AMDやQualcommのライブラリであろうが、すでに差はないと考えている」と、ソフトウェアスタックでの差はないとコスロシャヒ氏は説明した。
そして、PC向けのCoreプロセッサのようなクライアント向けCPUに、Nervana NNPを実装する可能性はあるのかという質問に対して「具体的な製品の計画に関してはお話できないが、将来的にクライアント向けのプロセッサにNNPを実装する可能性はある。NNPは訓練も推論もどちらにも適するように作ってあり、クライアントプロセッサで推論する場合に、小さなサイズのNNPを統合するというのは十分に考えられる」と述べ、IntelとしてもNNPをクライアント向けのプロセッサに統合することを検討していると認めた。
PCやスマートフォン向けのプロセッサの歴史を振り返えると、CPUに各種のアクセラレータ(動画ハードウェアデコーダーなど)が統合され、次にGPUが統合され……、とじょじょに統合されるエンジンが増えてきた。次に統合されるのは、NNPというはとても自然な流れで、すでにスマートフォン向けのSoCではそれが始まっている。それがPCの世界にもやってくる、コスロシャヒ氏のコメントはそうした未来を示唆している。