ニュース

Intel、秒間119兆回処理可能なAIアクセラレータ

Nervana NNP-Tのアーキテクチャコンセプト

 米Intelは20日(米国時間)、Hot Chips 2019にて、AI処理用のデータセンター向け「Neural Network Processor」として、学習用の「Nervana NNP-T」、推論処理用の「Nervana NNP-I」のアクセラレータ2製品を発表した。

 Nervana NNP-Tは、コードネーム「Spring Crest」として開発されてきた製品。同社では、Xeonプロセッサと異なり1からAIのために設計されているため、レガシーな技術のサポートに必要なオーバーヘッドなしに大規模なAIモデルの処理に必要な機能と要件を備えたプロセッサであるとしている。

 処理能力とコミュニケーション、メモリのバランスを考慮し、バッチ処理に最適化。スケールアウトをサポートし、将来登場する新たなワークロードにも対応するという。

 最大1.1GHz動作のTensorプロセッサ(TPC)24基を備え、最大119TOPS(秒間119兆回処理)の性能を謳う。TPUのほか、PCIe Gen 4 x16 EP、HBM2-2400メモリ8GB×4(1.22TBps)、64レーンのSerDes(最大3.58Tbps)、60MBオンチップ分散メモリ(TPCあたり1.4TBps)、CPUおよびインターフェイスマネージメント、2.5次元パッケージングなどが特徴。

 製造はTSMCの「CLN16FF+」プロセスで行なわれ、60mm四方の3,325ピンBGAパッケージを載せたPCIeカード/OAMフォームファクタとして提供される。通常の処理では消費電力150~250Wで、空冷で冷却できる。

SoC
概要

Nervana NNP-I

 Nervana NNP-Iは、コードネーム「Spring Hill」として開発された製品。同社の10nmプロセス技術とIce Lakeコアを活用することで、業界をリードするワットパフォーマンスを提供するとしている。

【お詫びと訂正】初出時にSpring HillをNervana NNP-Tと表記しておりましたが、NNP-Iの誤りです。お詫びして訂正させていただきます。

 SoCは、AVXとVNNIに対応したインテルアーキテクチャコアと、推論処理エンジン(ICE)10~12基を搭載。INT8演算性能は48~92TOPSで、TDPは10~50Wを謳う。合計SRAMは75MBで、DRAM帯域幅は68GB/s。

 M.2フォームファクタで提供される。

Spring HillのSoC設計
推論処理エンジン
深層学習処理グリッド
ベクター演算エンジン