ニュース

インテル、AI時代を見据えXeonの最適化や5Gネットワークへ注力

ロードマップ。XeonではCascade Lakeのあと、専用アクセラレータやCooper Lake、Ice Lakeを投入

 インテル株式会社は27日、都内にてデータセンター関連事業に関するプレス向け説明会を開催した。

 同説明会には、インテル株式会社 執行役員常務 技術本部本部長 土岐秀秋氏、同社アジアパシフィック・ジャパン担当 HPCディレクター 根岸史季氏が登壇。

 説明会は、おもに米Intelが第2および第3四半期で発表した内容をまとめたもので、それぞれの詳細は既報(IntelとHTC、5G対応の無線VR HMDを共同開発Intel、DRAMを超える高コスパメモリ「Optane DC Persistent Memory」を出荷年末登場の「Cascade Lake」は深層学習推論性能がSkylake-SPの11倍に)を参照されたい。

インテル株式会社 執行役員常務 技術本部本部長 土岐秀秋氏
インテル株式会社 アジアパシフィック・ジャパン担当 HPCディレクター 根岸史季氏

 土岐氏は、世界のデータ総量は爆発的な増加を果たしており、現在のデータの9割は過去2年で生成されたものであると紹介。アナリストの分析では、2025年までにデータ総量は160ZBに達し、現在の10倍に膨れ上がるとした。

 しかし、データ量の割に実際に活用されているデータの量は小さく、データ総量の1%しか活用されていないと述べ、膨大なデータからいかに価値を見出すかが重要になってくると語った。

 そしてエッジとクラウドをネットワークでつなぐ上で、5Gが重要になるとした。

 同氏は、4G策定時点ではスマートフォンは存在しなかったことに触れ、4Gにとってのスマートフォンのような、5Gのキラーデバイスや用途はまだ見つかってないのではないかと述べ、現在の規格策定時点で考えられている以上の、もっと「凄いモノ」が出てくるのではないかと期待していると語った。

 Intelでは5Gモデムを提供するとともに、ネットワークの変革に対応し、CPUやFPGA、インターコネクトといったシリコン(ハード)から、ソフトウェアまでカバーしていくとした。

データ中心の変革
自動運転車は最大のデータ収集装置
エッジとクラウド、コンピューティングビジョン
ネットワーク・5G・エッジのクラウド化
5Gは広帯域と高信頼性/低遅延、M2M通信対応
ネットワークとクライアント/クラウドすべてで5Gを実現

 データセンターでは、前述のとおりデータ量が膨大になることで、データセンター間やエッジへのトラフィック以上に、データセンター内のネットワークトラフィックが拡大しており、それに対しては、Omni-Pathファブリック、2019年にはArria 10 FPGAをベースにXeonシステムを最適化できるSmartNIC(Cascade Glacier) Ethernetを投入するほか、シリコンフォトニクスといったポートフォリオを用意すると説明。

 またメモリ/ストレージ階層に、メモリとSSDの間に位置するものとしてパーシステントメモリを投入。Optane DCパーシステントメモリを利用することで、2.6TBの大規模なデータでSpark SQL DSがDRAM比で8倍高速になり、Apache Cassandraでは読み込みトランザクションが9倍、システム起動時間を分単位から秒単位へ短縮できるといった利点を挙げた。

新時代のデータセンター技術
データセンター内のトラフィックが増大
コネクティビティポートフォリオ
メモリ/ストレージ階層を再定義
Optane DCパーシステントメモリ

 Xeonについては、2018年で20周年を迎え、2017年から投入されたXeonスケーラブルプロセッサでは、AIワークロードでも使えるように強化されていると説明。価格や性能を含め、製品レンジを拡大しているとアピールした。

 年内に投入予定の次世代Xeonプロセッサ「Cascade Lake」については、最適化されたキャッシュ階層やより高い動作クロックのほか、前述のOptane DCパーシステントメモリと組み合わせて使うことで、高い性能を実現するとした。

2018年でXeonは20周年
Xeonスケーラブルプロセッサから1周年
AIのためXeonを再設計
Xeonを使ったAIにおける成功
2018年内投入予定のCascade Lake
Deep Learning BoostでAI処理を高速化
差別化
まとめ

 根岸氏は、おもに同社のAI関連事業について説明。

 同氏は、AIは突然変異のような存在ではなく、ITの正常な進化の上にあるもので、起こるべくして起きた進化であると語り、データ爆発によって、ある種“過剰なデータ生成”が起きたことで、膨大なデータから価値を見出すことが、人間には困難になり、自動化/機械化の需要が生まれ、それがAIの役割になっているとした。

 また現在は、学習と推論のワークロードで市場が分かれているが、将来的にはその境界線は薄まっていくだろうとした。

 AIの活用現場が増え、エンドポイントでの利用など電力的制約、移動性など、複数の要件が生まれたことで、残念ながら汎用ソリューションは存在せず、適材適所なソリューションが必要になっているとし、Intelでも各用途に合わせたソリューションを提供しているとした。

 同氏は、AIの開発においては、データをもとに学習処理を行なう部分が注目されがちだが、ビジネス利用における実際の開発ライフサイクルでは、集約したデータへのラベル付けと読み込み、補足といった前処理の手間が大きいことを指摘し、Intelでは学習だけにフォーカスせず、全プロセスを高速化することを目標に顧客と協力しているとアピールした。

 ロードマップについては、Cascade Lakeの次世代となるCooper Lakeでは、bfloat16をサポートし、計算精度を落として高速処理を実行できるようになると紹介。

 また“Spring Crest”ことPCIカード型のAI学習アクセラレータ「Nervana NNP L-1000」も、同じくbfloat16をサポートし、2019年に商用提供を開始するとした。

爆発的成長を遂げるAI
進化するAI
AIの適用領域が拡大
汎用ソリューションがないAIのため複数の製品を投入しカバー
採用企業
AI開発のサイクル
XeonスケーラブルプロセッサはAIの基盤に
Nervana NNP L-1000
ソフトウェアとデータが要
実際の活用ではImageNetの26倍のデータでAIを学習させている
大規模な環境でもスケーラビリティによって優れた性能を実現
AIエコシステム
開発者との関わり
まとめ