ニュース
Intel、深層学習用プロセッサ「Nervana NNP」
~今年中に49量子ビットの量子演算チップ製造も予告
2017年10月18日 14:41
米Intelは17日、業界初となる人工知能プロセッサ「Intel Nervana ニューラルネットワークプロセッサ(以下Nervana NNP)」を、2017年中に提供開始することを発表した。
Intel Nervana NNPは、開発コードネーム“Lake Crest”として知られていた製品。
リリース中で同社CEOのBrian Krzanich氏は、Cognitive Intelligence (CI)およびArtificial Intelligence (人工知能、AI)は、2020年までに市場規模が460億ドルに達すると見込まれていると述べ、企業はNervanaテクノロジーを使用することで、処理データ量を最大化し、新しいクラスのAIアプリケーションを開発することで、ビジネスを変革できるとしている。
Nervana NNPは深層学習のために設計されたアーキテクチャで、コアハードウェアコンポーネントをできるだけ効率的にしつつ、すべての深層学習をサポートする柔軟性を両立することを目標に開発されているという。
深層学習において、行列乗算と畳み込み処理の2つは、中心的な要素となっているが、一般的な処理とは異なり、操作やデータの動きの大部分が先験的に分かっているという違いがある。
このため、Nervan NNPではキャッシュに階層を設けず、オンチップメモリをソフトウェアで直接管理することで、チップが各ダイ上で膨大な計算量を高いレベルで実現でき、結果として深層学習モデルのトレーニング時間が短縮されるという。
また、Nervana NNPは高速なオンチップ/オフチップインターコネクトで設計されており、大量の双方向データ転送が可能となっている。ニューラルネットワークパラメータが複数のチップに分散されるモデル並列性の実現を目標に設計されており、複数チップが、大きなモデルに対応する1つの大きな仮想チップとして機能するという。
さらなる特徴としては、「Flexpoint」と称する新しい数値形式の採用が挙げられている。単一チップ上のニューラルネットワーク計算は、電力やメモリ帯域幅によって大きく制約を受けるが、Nervana NNPでは、ニューラルネットワーク処理のスループットを向上させるため、前述のメモリ周辺の設計に加えてFlexpointが採用されている。
Flexpointを使用すると、スカラー演算を固定小数点の乗算や加算として実装できるとともに、共有指数を使用して大きなダイナミックレンジを実現するという。回路が小型になるため、ダイの並列性を大幅に向上させると同時に、計算あたりの消費電力を減少させるとしている。
製品ロードマップでは複数世代のNervana NNP製品が用意されており、AIモデルのスケーラビリティを実現するという。同社では2020年までにAI性能を100倍向上させるという目標を2016年に掲げているが、それを上回るペースに乗っているとしている。
同社ではNervana NNPのほか、直近でAIに関連して、人間の脳構造を模した、独自の自己学習型ニューロモルフィックチップ「Loihi」や、QuTechへ納品された17量子ビットの量子コンピューティングチップも発表している。
量子コンピューティングチップについては、2017年末に49量子ビットのチップを提供予定としている。