トピック

競合との競争の中で生きてくる、インテルCPU“5つの強み”

 前回の記事では、データセンター向けCPUの性能比較は「リアル・ワークロード」に注目することが重要だということを紹介した。そうしたリアル・ワークロードでの高い性能を実現するに当たって、インテルが同社のデータセンター向け製品である「インテル Xeon スケーラブル・プロセッサー」(以下、Xeon SP)に対して、どのような点に注力しているのか、前回の記事に続いてインテル コーポレーション データ・プラットフォーム事業本部 シニア・データセンター・パフォーマンス部長 デビッド・ヒル氏にお話を伺ってきた。

 ヒル氏は、インテルのデータセンター向けCPUの競合他社に対するアドバンテージはいくつかあるが、そのうちでも重要なのは「ソフトウェアの最適化」、「AIへの最適化」、「仮想化環境でのライブ・マイグレーションが利用可能なこと」、「高いセキュリティー性能」、そして「自社でチップ製造から、パッケージング、配送まで一気通貫に行えるサプライチェーンの構築と安定供給」が大きな利点であると説明した。

インテル コーポレーション データ・プラットフォーム事業本部 シニア・データセンター・パフォーマンス部長 デビッド・ヒル氏(写真提供:インテル)

Xeon25年の歴史の中でソフトウェアの最適化を行ってきたことが強みの1つに

 インテル コーポレーション データ・プラットフォーム事業本部 シニア・データセンター・パフォーマンス部長 デビッド・ヒル氏によれば、インテルのデータセンター向けのソフトウェア最適化の歴史は長いという。

 インテルのデータセンター向けCPUが市場投入されてから四半世紀(25年)が経過しているのだが、ヒル氏は、「90年代の半ば、IBM PowerやOracle(当時はSun Microsystems)のSPARCなど、RISCベースのCPUが一般的だった時代に、インテルはインテル Xeon プロセッサーをサーバー向けに投入した。その際にしたことがソフトウェアの最適化だ。お客様がOracle DatabaseやMicrosoft Exchange Serverなどをインテル Xeon プロセッサー上で動かす場合に、そのニーズを満たせるように最適化を行った。それは今も、Oracle、Microsoft、SAP、Citrix、VMwareなどとの協力という形で続いている」と述べ、長い歴史の中でISV(独立系ソフトウェア・ベンダー)との良好な関係を築き、ソフトウェアの最適化を行ってきたことを説明した。

 ヒル氏によれば、インテルが直接雇用しているソフトウェアのエンジニアは15,000人にも及んでおり、その規模は大手のソフトウェア・ベンダーが雇用しているエンジニアよりも多いほどだという。そうしたエンジニアが、CPUやマイクロコントローラーのファームウェアといったハードウェアに関係するソフトウェアだけでなく、アプリケーションの最適化を支援し、さらにはISVを支援するツールなどの提供を行っているというのだ。

 ヒル氏は「舞台裏でそうしたことを行っているため、お客様は購入してすぐに、可能な限り最高のパフォーマンスを得られる。というのも、CPUコアが多くあっても、ソフトウェア側がそれをうまく使うようになっていなければ意味がないからだ。また、新しい命令セットの導入によって大きな性能向上を実現することもあるので、新しい世代の製品が投入されるたびに、新しい命令セットが導入されている。そのためお客様にとっても、ソフトウェア最適化を常に学習し、それを自社のアプリケーションに組み込む必要があるが、最大限支援していきたいと考えている」と、同社の取り組みを説明。

 さらに、「当社のソフトウェア・エンジニアは、そういった情報の提供、最適化のためのツール提供などを継続的に行っていくことで、お客様のニーズを満たしており、そこは非常に評価されていると考えている」と述べ、ツールの提供やISVのサポートを始めとした継続的なソフトウェア最適化の作業が、Xeon SPの大きなアドバンテージになっていると説明した。

 また、そうした努力は今後も続いていく。近年インテルが力を入れているのが「oneAPI」だ。oneAPIは、インテルが提供している異なる種類の複数のプロセッサーを利用し、効率よく演算するためのソフトウェア開発環境である。

 インテルは間もなく、開発コードネーム「Ponte Vecchio」で知られるGPUを投入する。例えば、科学演算やシミュレーションといった大量のデータを並列に処理する場合にはCPUだけでなく、GPUも効率よく使った方がいいということはよく知られている。

競合他社のGPUを上回る性能を発揮すると見られるPonte Vecchio(出典:インテル Architecture Day 2021、インテル)

 ヒル氏は、「HPCのアプリケーションでGPUを効率よく利用するには、その上で動作するアプリケーション・ソフトウェアが重要で、CPU、GPU、FPGAなどの様々なプロセッサーを用いて、効率よく実行することが必要になる。そのソフトウェアを開発する環境がoneAPIだ。oneAPIは、インテルのCPUやGPUをサポートしているだけでなく、競合のCPUやGPUもサポートしているオープンなプラットフォーム。当社はこれをCoopetition(筆者注:cooperation/協力とcompetition/競争を掛け合わせた用語で、競争しながらも一部では協力し合うという意味の造語)と呼んでいる」と述べ、oneAPIについて、インテルが競合メーカーとも協力しながら普及を目指していきたいという姿勢であると強調した。

oneAPI(出典:Intel Architecture Day 2021、インテル)

AI推論性能を世代ごとに“桁違い”に向上させている、その要因は新命令セットやソフトウェアの最適化

 データセンターにおけるAI処理には、構築するAIにデータを読み込ませて訓練する「学習」と、学習済みのAIで画像認識や音声認識をさせる「推論」の2種類の処理がある。

 ヒル氏によれば、インテルが提供するXeon SPは、非常に多くのAI演算において利用されているが、このうち、アクセラレーター(GPUやインテルが提供するHabanaなど、AI学習に特化したアクセラレーター)との組み合わせで学習に、そしてCPU単体で推論に利用される例が多いという。

第3世代Xeon SP(写真提供:インテル)。AIの推論には、こうした高性能なCPUが単体で利用されているという

 ヒル氏は「CPUは、様々な汎用処理に利用できるプロセッサーだ。AIの推論では、1秒間に1万枚の画像を100%処理するという使われ方ではなく、特定の時間帯やほかのアプリケーションの一部として処理することが多い。それが、AIの推論がCPUで多用される理由だと考えている」と指摘。

 「それをGPUのアクセラレーターで行う場合には、メモリーからCPUにデータを取り込んだ後、PCI Expressバスを経由してGPUに転送・解析し、再び転送して、ということになり、レイテンシーの面で課題がある。そうしたこともあって、推論はCPU上で行われることが多いのが現状だ」と述べ、データセンターで推論を行うアプリケーションの場合には、性能面でも、必要とする処理能力という観点からも、CPU上での推論が多いと説明した。

 このためインテルでは、ここ数年、Xeon SP上で推論を行う性能を、文字通り桁違いに向上させている。例えば、2018年に米国で開催された「インテル AIDC(AI DevCon)」というイベントでは、初代Xeon SP(開発コードネーム:Skylake-SP)を利用したAIの推論では、ソフトウェア最適化を進めることで、以前の世代のプロセッサー(開発コードネーム:Haswell)に比べて198倍に性能が向上したと発表している。

Intel、深層学習を高速化する「Nervana NNP-L1000」を2019年末までに出荷
~2020年の東京オリンピックのAIプラットフォームパートナーに就任
https://pc.watch.impress.co.jp/docs/news/1123602.html

 その後、2019年に発表した第2世代Xeon SPでは、INT8の演算を高速化できるAVX512の拡張命令セットVNNI(Vector Neural Network Instructions)を導入し、ソフトウェア最適化前と比較してAI推論性能が285倍になったと説明している。

Intel、最大56コアになった第2世代Xeonスケーラブル・プロセッサ
~DL Boost搭載でDL推論性能が向上
https://pc.watch.impress.co.jp/docs/news/1177791.html

 ヒル氏は、「インテルは適宜、新しい命令セットを新しい世代のプロセッサーに導入している。5年前に512ビットでベクトル演算を可能にするAVX512を導入し、第2世代Xeon SPでは、INT8の演算を高速化できるAVX512の拡張命令セットVNNIを導入した。これらをソフトウェアに実装することで、世代ごとにAI推論性能を引き上げており、コア数を無駄に増やさなくても、より高い性能を引き出せるようにしている」と説明する。

 実際、現時点では競合他社は、AVX512の一世代前の拡張命令であるAVX2のレベルの命令セットまでしかサポートできていないし、VNNI命令は実装されていない。

 ヒル氏によれば、こうしたAI推論性能の強化は今後も続けられる予定だという。「当社は、10月に行われたインテル InovatiOnというイベントの中で、Sapphire Rapids(開発コードネーム、2022年前半にインテルが提供開始する予定の次世代Xeon SP)のパフォーマンス予想に関しても発表している。われわれがターゲットにしているのAI推論の性能が約30倍になると説明しており、それは新しいCPUだけで実現されるのではなく、ソフトウェアの最適化を含んでいる」と述べ、Sapphire Rapidsでも大きな性能向上を実現するだろうと強調した。

インテルが2022年前半に投入を計画している次世代Xeon SP「Sapphire Rapids」(写真提供:インテル)

競合他社に対する最大の強みは異なる世代間で仮想マシンのライブ・マイグレーションができること

 このほか、Xeon SPの競合他社に対する大きなアドバンテージの1つとして、ヒル氏は「仮想マシンのライブ・マイグレーション機能」を利用できることを挙げた。

 ヒル氏は「お客様のデータセンターの中をのぞいてみると、複数世代のインテル Xeon プロセッサー、あるいはXeon SPベースのサーバーを導入しているところが大部分で、それを常に最新世代にアップグレードすることを検討しているところもまた、ほとんどだ。そして、そうしたデータセンターが新世代のサーバーを導入した時には、仮想化ソフトウェアの機能の1つであるライブ・マイグレーションを利用するのが一般的である」と前置き。

 そして、「ライブ・マイグレーションを利用すると、仮想マシン上で動いているアプリケーションやサービスを止めることなく、そのままで古い物理サーバーから新しい物理サーバーへと引っ越しが可能になる。インテルからインテルへの引っ越しは、このライブ・マイグレーションが利用可能だが、インテルから競合他社への引っ越しの場合にはそれを利用できない。仮にライブ・マイグレーションが使えなければ、仮想マシン上で動いているサービスを一度、完全に停止してから移行することになるため、ユーザーへのサービス提供を止める必要が出てくる」と説明する。

 なぜそうなっているのかと言えば、VMwareやCitrixなどの仮想化ソフトウェアは例外なく、CPUメーカーがそれぞれ提供している仮想化支援技術を活用しているからだ。仮想マシンはハイパーバイザーを経由して物理ハードウェアにアクセスするが、その時にハイパーバイザーが仮想化支援技術に対応していれば、ハードウェアに直接アクセスしているのとほぼ変わらない性能を実現できる。仮にこの仮想化支援技術を利用できなければ、仮想マシンはとても低い性能でしか動作できないため、仮想化支援技術はどのデータセンターでも有効にしているだろう。

 しかし、この仮想化支援技術、その実態はCPUなどの命令セットの形になっており、異なるCPUメーカー間では互換性がないのだ。x86互換の命令セットのCPUであっても、インテルと競合他社では互換性が全く存在していない。通常、その差はVMwareなどのハイパーバイザーが吸収しているのだが、移行元と移行先が同じCPUメーカーのCPUでなければ、仮想化支援機能が異なってしまっているため、仮想化支援機能を利用するライブ・マイグレーションを行えないことになる。これは相互にそうなっており、インテルから競合他社へ、競合他社からインテルへと乗り換える場合にはライブ・マイグレーション機能を利用することができない。

 例えば、5年前のサーバーを置き換える場合、市場シェアのほとんどがインテルだったことを考えると、インテルから競合他社、あるいはインテルからインテルへの乗り換えが発生しているのが現状だ。インテルから競合他社に乗り換える場合には一度仮想マシンを停止して行う「コールド・マイグレーション」をしなければならないのに対して、インテルからインテルへの乗り換えはライブ・マイグレーションを利用可能で、このことがあるため、現状データセンターの顧客がインテルからインテルへと乗り換える理由の1つになっている。

 「例えばインテルのデータセンターでは1,500のアプリケーションが動作しており、750は購入してきたもので、750は自社で開発したものだ。そのほとんどは仮想マシン上で動作しており、ユーザーへのサービスを止めずに新しいサーバーを導入することには大きな価値があると考えている。当社だけでなく、お客様にとっても重要な事はダウンタイムを減らすことだということは論をまたない。そうした時にライブ・マイグレーションできるかどうかは大きな差別化ポイントの1つになっており、お客様に評価していただいている」とヒル氏は強調し、ライブ・マイグレーションがXeon SPを選択する場合の大きな訴求ポイントになっていると強調した。

第3世代Xeon SPではセキュリティー関連の機能が追加される、新命令とSGX

 さらにヒル氏は、Xeon SPのもう1つの大きなアドバンテージとして、セキュリティー機能を挙げた。4月に発表した第3世代Xeon SPでは、新しく2つのセキュリティー機能が追加されている。

 その1つ目が暗号化/復号、そして圧縮/解凍をこれまでよりも高速に行えるセキュリティー関連の新命令セットだ。ヒル氏によれば「こうした新しい命令セットの導入によりすべてのコアを使用せずにデータの暗号化/復号を行える。

 例えば、SSLを利用して重要な情報をクライアント・デバイスとやり取りするウェブサーバー上では、多くのSSLトランザクションが走っている。それらのSSLのトランザクション処理で新命令を利用することで、従来よりも少ないCPU負荷でより多くのトランザクションを処理できる。それにより、ウェブサーバー全体の性能を引き上げられその余ったCPU負荷を、レコメンデーション・エンジンに回すといったことが可能になるなど、ユーザー体験をよりよくすることが可能だ」と述べ、第3世代Xeon SPで導入された新しい暗号化/復号、圧縮/解凍の命令セットをうまく活用することで、ウェブサーバーの性能を高めることができると説明した。

 インテルは第3世代Xeon SPにおいて、AVX512の拡張命令としていくつかの新しい命令セットを導入しており、それにより従来の新命令に対応していない場合に比べて性能を高められる。例えば、インテルが発表時に公開した資料では、OpenSSLを利用して2,048ビットのRSA Signの処理を新しい命令セットで演算すると、利用しない場合に比べて5.63倍高速に実行できると説明している。このように、新しい命令セットに対応することは大きな効果がある。

第3世代Xeon SPで追加された暗号化/復号、圧縮/解凍の新命令セット(出典:3rd Gen Intel Xeon Scalable Platform Technology Preview、インテル)

 ヒル氏によれば、もう1つのセキュリティー関連の機能は、インテル ソフトウェア・ガード・エクステンションズ(SGX)と呼ばれる機能だという。メモリーの中に、エンクレーブと呼ばれるCPUのハードウェアにより守られている領域を作成することで、データを暗号化したままアプリケーションが処理することなどが可能になる。これにより、例えば高度にプライバシーを保護する必要がある医療データをビッグデータとして扱うといった、様々な使い方が可能になる。

 ヒル氏は「このインテル SGXは、従来1ソケット向け製品でのみサポートされていたが、第3世代Xeon SPからは、2ソケット向けの製品でもサポートが開始された」という。データセンター向けのメインストリーム向け製品群となるXeon SPでもインテル SGXのサポートが開始され、よりセンシティブな情報などを扱う場合にデータを守る方策の選択肢が増えたことになる。

第3世代Xeon SPでは2ソケット向けで初めてSGXに対応(出典:3rd Gen インテル Xeon Scalable Platform Technology Preview、インテル)

 なお、インテル SGXに関しては以前の記事が詳しいので、そちらをご参照いただきたい。

マネーロンダリングなどの不正利用を防ぐインテルCPUのセキュリティ技術「SGX」
~Intelがなぜデータセンターで強いのか? その包括的な製品群を徹底解剖
https://pc.watch.impress.co.jp/docs/topic/special/1354641.html

設計から製造までサプライチェーンを「オールインテル」で実現していることがインテルのサーバー製品の強み

 そして最後にヒル氏が強調したのが、インテルが競合他社とは異なり、自社でサプライチェーンを一気通貫でコントロールできている点だ。一般的に、半導体メーカーが半導体を顧客(具体的にはサーバーメーカー)の元に届けるまでには、以下のような工程をこなしていくことになっている。

(1)設計工程:半導体を設計し、マスクと呼ばれる回路図を作成する
(2)前工程:シリコンインゴットを円盤状に切り出したウエハーに、回路を形成していく
(3)後工程:ウエハーを切り出して、チップに分割し、そのチップをパッケージの中に封入していく

半導体製造の仕組み。図の①が設計工程、②と③が前工程、④と⑤が後工程となる(出典:Semiconductors and Intel、インテル)

 現在の半導体メーカーの多く、特にコンピューティング系の競合他社はファブレス(工場なし)と呼ばれるビジネス形態を取っており、(1)の設計工程こそ自分で行うものの、(2)と(3)に関しては、ファウンダリー(Foundry)と呼ばれる、受託生産を請け負う外部の半導体メーカーなどに委託して生産する場合がほとんどだ。

 しかし、インテルは米国、欧州、中東などに(2)の工場を抱えており、さらに南米や東南アジアなどに(3)の工場を構えている。このため、設計から製造までをすべて自社リソースで行えるのだ。これに対して競合他社の場合には、台湾や韓国のファウンダリーの工場に委託して生産するため、半導体の需要が旺盛で工場のラインにあまり空きがなければ生産が後回しになってしまうなど、自社のコントロールできないところで生産が遅れてしまう場合がある。

 ヒル氏は「当社の、設計から生産まで一気通貫に行える仕組みでは、お客様からの注文に応じて迅速に処理することが可能になっている。また、仮にファウンダリーの工場が集中している地域に地震があればサプライチェーンが寸断される恐れがあるが、当社のサプライチェーンは世界各地に分散しているため、そうしたリスクはより小さい」と説明する。

 実際に現在、半導体の逼迫が叫ばれている現状で、世界中でそうしたサプライチェーンの混乱が起きている。サーバーの製造においてCPUは部品の1つにすぎないが、1つでも不安要因が減るということは、安定した供給を期待するユーザーサイドとして、安心できる要素の1つと言えるだろう。

 ただインテルも今後は、外部のファウンダリーを利用してサーバー関連の製品を製造する計画を持っている。この記事の冒頭で紹介したPonte Vecchioでは、インテル自社工場で製造するチップと、外部のファウンダリーで製造するチップが混載して提供される計画になっている。しかしながら、そのパッケージング技術はインテルが自社で開発したチップを2D・3Dに混載する技術が採用されており、より安心して利用できる構成になっている。

 ヒル氏は「重要なことは、工場で働いているメンバーも含めて1つのインテルとして動いている点で、それがお客様のニーズを満たすために、最善の方法を迅速に決定することに繋がっている。実際にお客様からは、そうしたインテルの対応力、提供力を高く評価していただいており、それは表には出てこないものだが、他社との差別化要因になっている」と述べ、そうした一気通貫のサプライチェーンもインテルが顧客に支持される大きな理由の1つだと説明した。

*****

 ここまでで詳しく紹介してきたように、インテルのデータセンター向けCPUは、ハードウェアとしての進化もさることながら、ソフトウェアの最適化、AIへの最適化、仮想化環境でのライブ・マイグレーション、セキュリティー性能の高さ、強固なサプライチェーンなど、多くの面で競合他社に対するアドバンテージを保有している。

 サーバー選定の際の一助にしていただければ幸いだ。