トピック

データセンターを強くするIntelの40コアXeon

Intelがなぜデータセンターで強いのか? その包括的な製品群を徹底解剖!

Intelが提供する第3世代Xeon Scalable Processorsのウェハ(写真提供:Intel)

 今、データセンターはその形を大きく変えようとしている。データセンターと言えば、従来はエンタープライズのオンプレミスのデータセンターや、CSP(Cloud Service Provider)のハイパースケールのデータセンターなどが一般的だった。

 しかし昨今では、5Gの導入に向けて、CoSP(Communications Service Provider:通信サービス事業者)もデータセンターを設置し、その中で、通信機器を汎用プロセッサ+ソフトウェアにより実現するSDN(Software Defined Network:ソフトウェア定義ネットワーク)、およびNFV(Network Function Virtualization:ネットワーク機能仮想化)などの手法を利用した、仮想化されたネットワーク機器の導入が進んでいる。

 そうしたデータセンターに対してさまざまなビルディングブロックを提供しているのが、半導体メーカーのIntelだ。Intelは第3世代Xeon Scalable Processorsという最新CPUや、Optane Persistent MemoryというSCM(Storage Class Memory)、さらにはIntel Optane SSDなどの世界最高速を誇るSSDなどを提供しているほか、今後はIPU(Infrastructure Processing Unit)と呼ばれる、インフラの制御などで生じるCPUのオーバーヘッドをオフロードするプロセッサの提供も行うなど、データセンター全体での性能向上を目指していく姿勢を示している。

 本稿では、そうしたIntelのデータセンター向けのソリューションについて、インテル株式会社 執行役員常務 技術本部本部長 土岐英秋氏に話を伺った。

インテル株式会社 執行役員常務 技術本部本部長 土岐英秋氏

形を変えていくCSPやCoSPのデータセンター、通信機器はSDN/NFV技術により汎用プロセッサ+ソフトウェアでの置き換えが進む

 データセンターは大きく様変わりを続けている。従来型のデータセンターといえば、エンタープライズが自社の建物の中などに設置するオンプレミスが大半だったが、今ではAmazon Web Services(AWS)、Microsoft Azure、Google CloudといったCSPが提供するパブリッククラウドサービスを利用するエンタープライズが増え続けており、オンプレミスからパブリッククラウドへとインフラの移行が進んでいる。

 そうした動きは何もエンタープライズだけではない。CoSPと呼ばれる通信サービス事業者も、データセンターのソリューションを拡大する動きが続いている。CoSPにとっては4Gのネットワークを5Gに置き換えていくことが急務だが、5Gでは、汎用プロセッサ+ソフトウェアにより通信機器を仮想的に実現する、SDNと呼ばれる取り組みが進んでいる。

 そうしたSDNで実現される5G用の通信機器は、NFVと呼ばれる仮想化技術を利用して実現される。NFVは、Intelが2005年に導入したVT(Virtualization Technology)のような仮想化アクセラレーション技術に基づいており、CPUやメモリ、NICなどのハードウェアを仮想化する時に発生するオーバーヘッドを削減し、ネイティブで実行しているのと遜色ない性能を発揮することが可能になっている。こうした仮想化技術は、CSPのデータセンターではすでに当たり前のように使われているが、それがCoSPでも利用が始まっているのだ。

 汎用のハードウェアとVT、仮想化ソフトウェアを組み合わせて利用することで、データセンターの汎用リソースを利用してネットワーク機器を仮想的に実現できるようになる。それで、負荷が高まった時にはソフトウェア的に仮想マシンを増やし、その逆に負荷が低い時には仮想マシンを減らすというやり方で、負荷に応じたリソースの増減を仮想的に実現することが可能になる。

 すでに、こうした仕組みを自社のネットワークに組み込んで稼働させているCoSPも登場しつつある。今後は5GがNSA方式(4Gのインフラを一部使う方式)からSA方式(5Gネイティブのインフラを利用する方式)へ移行するにあたって、こうしたSDN/NFVを利用するCoSPが増えていくと考えられる。

 このように、CSPやCoSPのデータセンターでは社会のインフラを支える仮想マシンが動いており、それを効率よく管理し、性能を最大化するようなデータセンターのインフラが必要になりつつある。

全世代と比較して最大1.46倍の性能向上を実現している第3世代Xeon SP

 そうしたデータセンターのインフラを支えているCPUが、IntelのXeon Scalable Processors(Xeon SP)だ。データセンター向けのCPU市場のほとんどがx86プロセッサであるのが現状だが、データセンター向けのx86プロセッサ市場において、Intelは90%を越える市場シェアを持っており、圧倒的なシェアを誇っている状況だ。

 そうした中で、Intelは4月に第3世代Xeon Scalable Processors(以下、第3世代Xeon SP)という新製品を発表している。この第3世代Xeon SPはIce Lakeの開発コード名で知られる製品で、CPUコアが最大40コア(従来製品の第2世代Xeon SPでは最大28コア)へ強化されるなど、多くの性能強化が行われたことが特徴となっている。

データセンターで使われる第3世代Xeon Scalable Processors(写真提供:Intel)

 インテルの土岐氏は、「第3世代Xeon SPがCPUの性能を引き上げたことはもちろんだが、CPU単体の性能だけでなくインターコネクト、メモリ階層、ストレージ、セキュリティなど周辺部分の改良も行われており、データセンターのインフラとしてトータルの性能にフォーカスしている」と、その特長を語る。

 すでに述べた通り、CPUコア数は第2世代Xeon SP(Cascade Lake)の最大28コアから最大40コアに強化されており、さらにCPUのマイクロアーキテクチャ(内部構造の仕様)も、開発コード名に「Cove」の名称がつく最新世代の系列「Sunny Cove」へと変更された。内部の仕組みが大きく強化されることにより、CPUコア単体での命令実行効率が大きく改善されている。

Intelの最新データセンター向け製品のポートフォリオ(出典:インテルの最新技術・製品アップデート、インテル株式会社)

 CPUとCPUを接続するインターコネクトの「UPI」も、従来世代では10.4GT/秒だったものが11.2GT/秒に引き上げられており、別のソケットにあるメモリにあるデータを読み込む場合のレイテンシ(遅延)を改善。システム全体でのパフォーマンス強化につなげている。

 メモリ階層の強化も大きな強化点となる。CPUに内蔵されているキャッシュメモリは各階層で容量が増やされており、1つのCPUあたりの容量は、L1データが48KB(従来32KB)、L2が1.25MB(従来は1MB)、LLC(ないしはL3)が1.5MB(従来は1.375MB)となった。また、メモリコントローラのチャンネル数が6から8へと強化されたほか、メモリの帯域幅も強化。DDR4メモリを利用した場合のソケットあたりの最大メモリ容量も、従来の3TBから4TBへと強化されている。

 さらにメモリ容量を増やしたい場合には、Optane Persistent Memoryという、Intelが提供するSCM(Storage Class Memory)を利用することも可能だ。Optane Persistent Memoryは、ストレージとメモリの中間の性格を持つメモリで、メモリに近いアクセスを実現しながら、ストレージに近い大容量を実現している製品となる。第3世代Xeon SPでは、第2世代のOptane Persistent Memory「Optane Persistent Memory 200シリーズ」に対応しており、DDR4メモリと混載して利用することで、ソケットあたり最大6TBの容量を実現できる。

CPUだけでなくOptaneやSSDなど周辺部分も強化されている(出典:インテルの最新技術・製品アップデート、インテル株式会社)

 また、ストレージ(SSD)を接続するI/Oとして、CPUソケットあたり最大64レーンのPCI Express Gen 4に対応しており、Intelが昨年発表した「Intel Optane SSD P5800X」など、PCI Express Gen 4対応のストレージを利用可能だ。

 こうした多くの部分での強化により、「第3世代Xeon SPは従来世代に比べて一般的なベンチマークで最大1.46倍の性能向上、AI推論では1.74倍の性能向上、そして5年前のシステムとの比較では最大2.56倍のパフォーマンス向上を実現している。それによりクラウド、エッジ問わず使っていただける製品になっている」(土岐氏)との通り、大きな性能向上を実現しているのだ。

従来世代に比較して1.74倍、5年前のシステムに比較して2.56倍の性能向上を実現(出典:インテルの最新技術・製品アップデート、インテル株式会社)

新しいセキュリティ機能「SGX」、アクセラレーション機能「QAT」、効率よく推論できる拡張命令セット「DL Boost」などの新技術

 こうした性能の強化により、データセンターの内部では、より多くのデータを処理することが可能になる。土岐氏によれば、そうしたデータの処理量が増えるにつれ、セキュリティの処理も同時に増え、それをどう効率よくやっていくかが課題になっていくという。「第3世代Xeon SPでは、SGXなどのセキュリティ周りの新機能や、QATの強化などによって、セキュリティの処理をより効率よく行うことができる」と土岐氏が話す通り、第3世代Xeon SPではセキュリティ周りの強化も重要な強化ポイントになっている。

 土岐氏が紹介したIntel SGX(Software Guard eXtensions)は、これまでクライアント向けCPUなどで有効にされてきたセキュリティ技術で、データセンター向けの製品では、第3世代Xeon SPで初めて採用された。

 簡単に言ってしまうと、メモリに「エンクレーブ(Enclave)」と呼ばれる、暗号化された特殊な領域を作成し、CPUの認証を経た場合のみそこにアクセスできるようにする仕組みで、ソフトウェアではなくハードウェアを利用しないとアクセスできないようになっているため、従来の暗号化よりもさらに高いセキュリティを確保できるようになっている。

 これにより、OS上で実行されている悪意を持ったほかのアプリからの攻撃や、動作しているメモリモジュールを抜いてその中のデータを抜き取るコールドブート攻撃などからも、重要なデータを守ることができる。

第3世代Xeon SPではIntel SGXへの対応によりセキュリティの強化が図られている

 また、従来製品から搭載されているIntel QAT(QuickAssist Technology)も引き続き搭載されており、暗号化/圧縮に関わる処理をCPUからオフロードできる。これにより、パケット処理時などに必要になるデータの暗号化/復号、圧縮などの操作時に、CPUへの負荷を最小限にすることが可能だ。

 土岐氏によれば「Intelでは、セキュリティの課題に対して、ほかにもさまざまな取り組みを行っている。例えば、脅威を発見して最初に通報してくれた外部のプログラマーなどに対し、報奨金を出す取り組みをしているが、社内でも同じような取り組みを行っており、7割以上は社内の取り組みで見つかっている。このように、セキュリティに対して積極的に取り組むことが、Spectra(編集注:さまざまなCPUに存在するハードウェアレベルの脆弱性)問題の時に学んで教訓だ」とのこと。そうした地道な取り組みを日々行いながら、発見された脅威をふさぐための取り組みを行っているという。

 そしてもう1つの強化点は、ソフトウェア周りの強化だ。第3世代Xeon SPでは、Intel DL Boostと呼ばれる、AVX512のディープラーニング推論向けの拡張命令セットに対応している。具体的には、マシンラーニングの推論を行う時に、FP32やFP16などを使わずINT8の精度で演算するための命令セットVNNI(Vector Neural Network Instructions)が用意されており、これを利用してINT8でディープラーニングの推論を行うことで、処理能力が大きく向上する。現状、VNNIに対応しているのはIntelのプロセッサだけで、より効率よく推論を行いたい場合に大きな効果がある。

 なお、今後もIntelはこうしたディープラーニング推論時の性能向上を実現していく方針で、先日行われた「Intel Architecture Day 2021」では、AMX(Advanced Matrix eXtensions)という、より効率よく推論を行う新しい命令セットが、次世代製品となる「Sapphire Rapids」で実装されると発表された。このように、今後も継続して拡張が続けられていく。

次世代のXeon SPとなるSapphire Rapidsでは、AIをより効率よく演算できるAMXに対応予定(出典:Intel Architecture Day 2021、Intel)

CSPにとっての新しい悩み“ハイパーバイザーのオーバーヘッド”解消のために開発されたIPU

 Intelが提供しているデータセンターのビルディングブロックは、何もCPUだけではない。よく知られていることに、Intelはデータセンターのインフラとなるネットワーク周りにも力を入れており、200Gbpsのイーサネットアダプターなどの提供も行うなど、データセンター全体で性能を上げる取り組みを行っている。これまでも、SmartNICと呼ばれる高機能なNICを提供してきたが、2021年6月からは、IPU(Infrastructure Processing Unit)という新しいインフラの提供を開始している。

 土岐氏によれば、「IntelでCSPに聞き取り調査を行った結果、データセンターのCPUのうち、20~80%程度が仮想化のオーバーヘッドに使われてしまっているということに彼らが困っており、その結果、テナント(CSPの顧客のこと)に対して提供できるCPUの処理能力が制限されていることがわかった」のだという。

 データセンターの中では、CPUなどの物理ハードウェアの上に仮想マシンを制御するハイパーバイザーが走っており、さまざまなサービスを仮想マシンに対して提供している。例えば、ストレージがネットワークストレージである場合には、NICを介してネットワーク上にあるストレージに接続し、それがローカルのストレージであるように、仮想マシンに対してストレージサービスを提供する。こうした処理に対してCPUの処理能力が取られてしまうといった現象が発生しているという。

 実際、Intelが行った「Intel Architecture Day 2021」では、Facebookの事例が紹介されており、そうしたオーバーヘッドが31~83%になっていると説明されている。つまり、83%の場合には、CPUは残りの17%しか本来の処理には使われていない計算になる。

Facebookの事例、31~83%のCPU処理がインフラ側のオーバーヘッドで使われている(出典:Intel Architecture Day 2021、Intel)

 そこで、Intelが提案している新しいソリューションがIPUだ。IPUでは、本来CPUが行わなくて良い、ハイパーバイザーの動作に生じているオーバーヘッドをIPU側にオフロードして処理を行うことで、CPUの負荷を下げる効果がある。それにより開放されたCPUの処理能力は、テナントのデータ処理に使えるので、CSPのデータセンター全体の効率を上げることができるのだ。それにより、CSPのTCOを下げる効果があるのも言うまでもない。

 Intelは前出のIntel Architecture Day 2021において、IPUの具体的な製品として3つの製品を紹介した。1つはFPGAと100Gbpsのイーサネットを2ポート搭載した「Arrow Creek」、100GbpsのイーサネットとFPGA、さらにXeon-Dを搭載したOak Spring Canyon、そして最後にIPU用の専用ASIC「Mount Evans」の3つだ。

 特にMount Evansは、200GbpsイーサネットのMACとネットワーク処理を行う専用エンジンなどを搭載しており、さらにCPU(Arm Neoverse N1)、暗号化/圧縮アクセラレータ(Intel QAT)を標準搭載しているので、それだけでも十分な処理能力を持つASICになっている。

Mount Evans(出典:Intel Architecture Day 2021、Intel)

データセンターからエッジまで幅広くサポートするビルディングブロック、そして市場のニーズを満たすことができるサプライチェーンの強み

 このように、単にCPUという単体の部品を提供するだけではなく、CPU、SCM、ストレージ、そしてNICから発展してIPUというネットワーク周りのインフラも含め、ほぼすべてのビルディングブロックを供給しているというのがIntelのデータセンター向けソリューションの強みと言える。

データセンターが必要とする幅広いビルディングブロックを用意するIntel(出典:インテルの最新技術・製品アップデート、インテル株式会社)

 また、今や、そうしたデータセンター用のビルディングブロックは、データセンターの中だけで使われる訳ではなくなった。いわゆるエッジサーバーと呼ばれる、より現場に近いところに設置されるサーバーにおいても、データセンター用ビルディングブロックへの注目が集まっている。

 例えばCoSPが展開するMEC(Multi-access Edge Computing)はその代表例で、セルラー回線の基地局の近くに置かれ、CoSPが顧客に対して低レイテンシのサービスを展開することを可能にする。動画のストリーミング、ゲームストリーミングサービスのキャッシュデータなどが置かれれば、高品質なサービスを顧客に対して展開可能だ。そうしたところにも、Intelのデータセンター向けのビルディングブロックは大きな効果を発揮すると考えられている。

 最後に、Intelのそうしたデータセンター市場での強みは何かと問われた土岐氏は、「自社で製造工程まで所有しているため、安定して供給できることだろう。そうした製造の仕組みを進化させる取り組み(IDM 2.0)では、他社の製造施設も積極的に使っていくし、他社向けの生産も行う。それによって、より安定した半導体の供給ができる体制を整えていく」と述べた。

 実際、Intelはx86アーキテクチャのデータセンター向けCPUのうち、90%を超える市場シェアを持っており、それだけのニーズを安定して満たせるサプライチェーンをすでに構築している。

 こうした、安定供給できるサプライチェーン、そして高性能なCPUやIPUをはじめ、データセンターに必要なビルディングブロックのほとんどを提供できる幅広いポートフォリオなど、今まさにCSPやCoSPが必要とする要素がすべて用意されている、それがIntelのデータセンター向けソリューションの強みということができるだろう。