ニュース

Intel、DRAMを超える高コスパメモリ「Optane DC Persistent Memory」を出荷。Googleが採用

Optane DC Persistent Memoryを紹介するIntel 上級副社長 兼 データセンター事業本部 事業本部長 ナビーン・シャノイ氏

 Intelは8月8日(現地時間)、米国カリフォルニア州サンタクララ市にある本社講堂において、同社のデータセンター事業本部(DCG)の戦略などを説明する「Intel Data-Centric Innovation Summit」を開催した。

 このなかで同社は、更新されたサーバー向けCPUのロードマップを示したほか、DRAMと同じようにメインメモリとしても使用できる「Optane DC Persistent Memory」の顧客への出荷を開始したことを明らかにした。

Optane DC Persistent MemoryがGoogle Cloud Platform向けに出荷

 Intelは、3D XPointの開発コードネームで開発してきた新しいNVM(Non Volatile Memory)を、Optane DCの名称ですでにデータセンター向けに発売している。

 これまで投入されてきたOptane DCは、SSDの代わりにストレージとして活用できる「Optane DC SSD」だったが、今回発表された「Optane DC Persistent Memory」は、DRAMの代わりにメインメモリとして利用できる。

従来のメモリ階層。DRAM、HDDとなっていた
Optane登場後には、DRAM、Optane DC Persistent Memory、Optane DC SSD、SSD、HDDとなる
データセンター向けのメモリ事業のTAMは100億ドルと予測

 DRAMほどの性能は備えていないものの、Optane DC Persistent MemoryはSSDとDRAMの中間程度のアクセス速度や低レイテンシを実現しており、同じ容量であればDRAMよりも低コストで導入でき、同コストで容量を増やせるというメリットがある。

 このため、アクセス速度や低レイテンシよりも容量が効いてくるSAPのHANAのようなメモリに大量のデータを展開するようなアプリケーションでは意味がある。今後、メモリ、ストレージ階層の新しい選択肢になるとして注目されている。

シャノイ氏からサノ氏(左)へ手渡された

 今回、Optane DC Persistent Memoryを正式に出荷開始したということで、同社の最新製品であるXeon SP(開発コードネームSkylake-SP)との組み合わせで利用できるようになっている。

 Intel 上級副社長 兼 データセンター事業本部 事業本部長 ナビーン・シャノイ氏は、ゲストとしてGoogle Cloud プラットフォーム担当副社長 バート・サノ氏をステージに呼び、Optane DC Persistent Memoryを手渡すというセレモニーを行なった。Optane DC Persistent MemoryはGoogle Cloud Platform(GCP)に採用され、今後GCPの一部として提供される予定だ。

Optane DC Persistent Memoryのパートナー、多くのクラウドサービスプロバイダなどに受け入れられている

 ほかにもAWSを展開するAmazon、Azureを展開するMicrosoftなども、Optane DC Persistent Memoryのパートナーとして紹介されており、今後じょじょに各クラウドサービスプロバイダなどからサービスを介して利用されることになりそうだ。

DCGのTAMは200億ドルに達するとIntel、データセンター向け半導体とストレージ事業が大きく伸びると予測

 また、Intelのシャノイ氏は、データセンター事業本部(DCG)のTAM(Total Addressable Market)の予測を更新した。TAMとは、競合他社も含めてその市場全体が、どこまで成長できる潜在性があるかを示す指標で、最近米国の企業を中心に、自社が製品を投入している市場の潜在力がどの程度であるかを説明するときに使われている。

Intelが公表したDCGの2022年時点でのTAM

 昨年(2017年)Intelが証券アナリストなど向けに行なった説明会で、IntelはDCGのTAMとして2021年に1,600億ドル(1ドル=110円換算で、17兆6,000億円)との予測を紹介した。そして今回、2022年にはさらに成長してTAMが200億ドル(同、2兆2千億万円)になると見込んでいると明らかにした。

 データセンター向け半導体事業が900億ドル、ストレージ事業が750億ドル、IoTと自動運転向け事業が330億ドル、FPGA事業が80億ドルと試算しており、とくにデータセンター向けの半導体事業が200億ドルの上積み、ストレージ事業が150億ドルの上積みとなっており、昨年よりもデータセンター向けの半導体やストレージ事業の需要が今後伸びていくという予測に変わったと説明した。

Xeon Dを搭載したネットワーク機器を紹介するシャノイ氏
クラウド向けの半導体需要が今後も伸びていく。とくにカスタムチップがすでに大きなボリュームを占めている
データセンター内のトラフィックも増加
SDN/NFVにより通信キャリアのインフラも汎用プロセッサベースへと移行していく

 データセンター向けの半導体事業では、クラウド向けの半導体が今後伸びていくと予測されており、AWS、Azure、GCPなどのクラウドサービスプロバイダ向けのカスタムCPU向けの成長が望まれるという。

 また、通信キャリアのインフラ(基地局など)向けにも、SDN(Software Defined Network)/NFV(Network Functions Virtualization)を利用してネットワーク機器を汎用プロセッサで実現していく方向にシフトしていくと予想されており、そこも成長市場とされている。

IntelのAI関連の売り上げはすでに10億ドル(約1,100億円)を超えている

 AI向けの半導体も大きな成長が望める市場になっており、シャノイ氏は「すでに2017年の段階で、IntelのAI向けの売り上げは10億ドル(同、1,100億円)に達している」と述べ、すでに大きな売り上げを見せており今後も伸びていく方向だと説明した。

 Intelは2016年に買収したNervanaやMovidiusといったスタートアップ企業のソリューションも取り込んで、AI向けのポートフォリオを増やしており、さらにXeonやそれらのアクセラレータ、FPGAなどを有機的に活用するnGRAPHなどのソフトウェアソリューションを拡充し続けており(深層学習でNVIDIAの脅威となるIntelの「Spring Crest」と「nGRAPH」参照)、開発者へのアプローチを強めていくと説明した。

 別記事(年末登場の「Cascade Lake」は深層学習推論性能がSkylake-SPの11倍に)でも説明したとおり、IntelはXeonでもAIへの対応を強化しており、次世代のXeonとなるCascade Lakeでは、新たにVNNI(Vector Neural Network Instruction)の命令セットを含む機能としてIntel Deep Learning Boostを搭載し、ディープラーニング(深層学習)の推論を、前世代よりも11倍高速にできるようになると説明した。その後のCooper LakeでもBFLOPS32に対応するなどの機能拡張が予定されている。