後藤弘茂のWeekly海外ニュース
変革期を迎えたデータセンターにチャンスを見いだすAMD
(2014/12/3 06:00)
過去10年でサーバーが最もエキサイティングな時期
データセンターのサーバーが変革期を迎えている。これはコンピュータ業界の共通認識だ。サーバーのCPU自体を変える、アクセラレータを導入する、メモリ-ストレージ階層を変革する、インターコネクト&スイッチを変革する。こうした動きが徐々に広まる、あるいは予兆が強まっている。その変化の波にチャンスを見いだす企業は多い。AMDもその1つだ。AMDのJoe Macri氏(CVP and Product CTO)は、サーバー市場について次のように語っている。
「サーバーを変革する動きが始まっている。Microsoftは同社のデータセンターにFPGAを大量に導入することを論文で明らかにしている。今後は、そうしたサーバーの革新が数多く見られるようになるだろう。
そうした意味で、サーバーが再び盛り上がる時期(Heyday)を迎えつつあると見ている。いったんx86 CPUが全てを占めてしまったが、それが弱まり、今はARM CPUが入って来ようとしている。Microsoftのような固定機能のアクセラレータを大々的に導入する動きもある。そして、潜在的だがAPU(Accelerated Processing Unit)サーバー市場も開こうとしている。メモリを見ると不揮発性メモリが、さまざまな形で導入されつつある。
サーバーの世界は、じつにエキサイティングな状況になっている。おそらく、過去10年で最もエキサイティングな時期だ」。
AMDは数年前に戦略を転換。サーバーと組み込みに注力する方向を明らかにした。サーバーは現在のAMDの重要な柱だ。しかし、その中身は、かつてのOpteron戦略とは大きく異なっている。
AMDは、マルチコアCPUのOpteronで一時x86サーバーCPU市場で優位に立った。しかし、現在のAMDのサーバー戦略は、かつてのような大型CPUコアのCPU製品一辺倒ではなくなっている。ARMベースの小型CPUコアサーバーを導入する一方で、GPUコアを搭載したAPUもサーバー向けに推進、ユーザーロジックのアクセラレータを取りこんだセミカスタムSoCも示唆する。製品戦略が複雑な上に、その成果がまだ見えて来ていないだけに、AMDのサーバー戦略は非常に分かりにくい。しかし、AMDの戦略は、現在のサーバーの背景にある問題を理解すると、よく分かる。
バラバラに見えるデータセンター変革の動きは全て同じライン上に
現在のデータセンターの抱えている問題は電力だ。データセンターの消費電力は急激に伸びており、その数字は危険水準にまで達している。米Stanford大学の研究者のJonathan G. Koomey氏のレポート『Growth in Data Center Electricity Use 2005 to 2010』によると、2010年の米国のデータセンターの消費電力は、米国の電力全体の1.7~2.2%の間に達したという。下は、Googleが「Berkeley Symposium on Energy Efficient Electronic Systems(E3S) 2013」で示したプレゼンテーションで、データセンターの電力消費が急増していることが分かる。現状では、この比率はさらに増えているはずだ。
そのため、大規模データセンターは電力消費を抑えなければならない状況に置かれている。ところが、IoTからのデータの吸い上げとビッグデータ化など、データセンターが処理するデータ量は、今後ますます増える傾向にある。そこで必須なのは、プロセッシングの電力効率を上げることだ。
下のスライドは、データセンターをFPGA中心に組み替えることを発表したMicrosoftのHot Chipsでのスライドだ。フレキシブルなCPUよりも演算に特化したDSPの方が電力効率が高く、固定機能ハードウェアの方がさらに電力効率が高い。上のスライドではDSPとなっているがGPUも同じことで、Application-Specific Processor (ASIP)の総称がDSPの部分だと考えていい。フレキシビリティと電力効率はトレードオフの関係にある。
このスライドはMicrosoft Researchが何度か使っており、元データはUniversity of California, BerkeleyのRobert W. Brodersen教授のものだ。ちなみに、FPGAデータセンターの技術的な要素については、Microsoft Researchは今年(2014年)7月のFaculty Summitでも説明している。
現在のサーバーの世界のコンピュートの変革に関する動きは、全てこのスライドに集約されている。ASIPの一種であるGPUは通常のCPUより7~10倍も電力効率が高いとされている。スライドのマルチコアCPUに対してASIPが10倍の性能という表現と合致する。そして、ASIC(Application Specific Integrated Circuit:特定用途向けIC)の固定ハードウェアはCPUに対して100から1,000倍も電力効率が高いと言われている。さらに付け加えるなら、同じCPUでも、大型CPUコアよりも小型CPUコアの方が電力効率が高い。固定ハードのASICもセルベースかフルカスタムかによって効率が異なる。そして、Microsoftは、FPGAは固定機能ハードウェアの効率性とある程度の柔軟性を両立させる解だと見ている。これをデータセンターに即した概念図にすると下のようになる。
ARMや低電力x86などの小型CPUコアを導入するのは、CPUの柔軟性はそのまま保ちながら電力効率を高めるためだ。GPUやIntelのKnightsファミリを導入するのは、小型コアCPUよりもさらに電力効率を高めるためだ。ハードウェアアクセラレータは頻繁に発生する特定処理に的を絞って電力効率を極めて高めるためだ。FPGAはハードウェアアクセラレータの効率と、リコンフィギュラブル(再構成可能)な柔軟性を両立させるために導入する。
こうしてみると、バラバラに見えるデータセンターの変化、すなわち、小型コアCPU、GPUコンピューティング、アクセラレータ、FPGAなどが全て同じラインに沿った動きであることが分かる。
また、サーバーのワークロードは多様化しているため、それぞれのワークロードでコンピュートやメモリ、I/Oなどの負荷の比率が異なり、そこに異なるタイプのソリューションを適用できるチャンスがあることもポイントだ。下はFacebookが昨年(2013年)の「FLASH Memory Summit」の基調講演で示した、同社のデータセンターのサーバーレイヤーとそれぞれの負荷を示したチャートだ。Facebookは先月のJEDEC Server Forumでも全く同じチャートを示している。
ARMサーバーの浸透の戦略を支えるSkyBridge
こうした背景を概観すると、AMDの動きは非常に明確で、電力の壁に達したデータセンターの改革の動きに合わせたソリューションを提供して行こうとしている。
小型コアサーバーについては、AMDはARMv8ベースのサーバーSoC(System on a Chip)「Seattle(シアトル)」を発表した。しかし、AMDは将来的にはx86とのプラットフォーム互換のARMサーバーSoCを投入することで、x86ベンダーの強味を活かしてARMコアを推進しようとしている。それが、ARMとx86でプラットフォームを互換にするプロジェクト「SkyBridge」だ。
SkyBridgeは第1段階と第2段階があり、最初の第1段階ではクライアントや組み込みをターゲットとしたAPUを投入するが、次の段階ではサーバー向けのSkyBridgeを投入することを、Jim Keller氏(Vice President and Chief Architect of AMD's Microprocessor Cores)が今年(2014年)5月のAMD Core Innovation Dayで明らかにしている。Macri氏はその意図を次のように説明する。
「今日のサーバー市場は99.9%までがx86だ。そして、サーバーのプラットフォームは、冷却やホットプラグなどメインテナンス性のエンジニアリングコストが高いため非常に高価だ。そのため、サーバー市場に新しい(CPU)アーキテクチャが入り込もうとすると、非常にハードルが高い。新しいアーキテクチャは、最初は市場規模が小さいため、プラットフォームなどへの投資を正当化することは難しい。
しかし、プロジェクトSkyBridgeでは、x86とARMが同じインフラを共有できる。そのため、OEMとエンドユーザーのどちらにとっても利益がある。顧客は、同じインフラで、ARMとx86のどちらのCPUも、自由に選択できる。レガシーのx86が必要な場合も、新しいARMを導入したい場合も、同じソケットでCPUだけを選択できるため簡単だ。OEMにとっては、インフラを共有できるためARM製品に投資をすることが容易となる。ARMのような新市場の製品も、低いリスクで手がけることができる。
組み込み市場でも全く同じ利点を、逆の面で享受できる。組み込みはかつては複数の(CPU)アーキテクチャがあったが、(大きな市場を占めていた)MIPSをARMがほとんど駆逐してしまった。(ARMが占める)組み込み市場にx86が成長しようとする場合に、SkyBridgeは利点となる」。
こうして見るとSkyBridgeの重要な目的がサーバーにあることが分かる。ただし、SkyBridgeベースのサーバーSoCの登場は2016年の予定で、AMDのSkyBridge戦略はフェイズ遅れになりかねないことが難点だ。
時間がかかるAPUとHSAの浸透
AMDはデータセンターにARMコアを導入しようとするだけでなく、GPUコアを統合したAPUも浸透させようとしている。すでにハイパフォーマンスコンピューティング(HPC)の世界では、NVIDIA GPUは重要なプロセッサとなっている。AMDはHPCでは遅れを取ったこともあり、通常のデータセンターへの浸透に注力している。HPC以外のデータセンターでも、GPUコンピューティングを併用するヘテロジニアス(Heterogeneous:異種混合)コンピューティングが浸透すると見ているからだ。しかし、現状は、APUとHSAモデルのサーバーへの浸透は遅遅として進んでいない。その理由についてMacri氏は次のように語っている。
「サーバー市場の動きはクライアントと比べると非常に遅い。多くのインフラストラクチャとソフトウェアが絡むためだ。しかし、現在、(GPUを含む)アクセラレータについての取り組みが数多く進行している。多くのユーザーが、サーバーワークロードに対しての高度にプログラマブルなアクセラレータについて関心を持っている。
現在、HP(Hewlett-Packard)が「HP Moonshot System」でAPUをサーバー向けに提供している。現状では、HDI(Hosted Desktop Infrastructure)などのソリューション向けだが、伝統的なサーバーでもアクセラレータのリサーチが進められている。そうした取り組みでは、どんな種類のアルゴリズムがAPUなどに向いているか、APUが潜在的にアクセラレートできるワークロードは何かをテストしている。
研究が進み、いったん、APUなどの適用に向いたアプリケーションが明らかになれば、サーバースペースへのAPUの導入が始まるだろう。アクセラレータを適用できるワークロードが明確になり、そのワークロードの市場が充分に大きいと判明して来れば、状況は変わって来る。研究結果は、顧客がAPUを導入する強い動機になるだろう」。
AMDがHSA 1.0の最終段階で実装したGPUコンピュートのタスクスイッチングなどは、サーバーで力を発揮する機能だ。GPUがCPUのような柔軟な仮想化をサポートできるようになるからだ。また、AMDは、GPUコアのマイクロアーキテクチャに、細粒度の条件分岐を容易にするベクタの再構築機能も実装すると言われている。AMDがそうしたHSAの技術要素を揃えるのに時間がかかっていることも、なかなかAPUサーバー戦略が進まない理由の1つでもある。
データセンターを巡る技術トレンドの背景を見ると、AMDのサーバー戦略はよく分かる。もっとも、MicrosoftはGPUアクセラレータも検討したが、結果的にFPGAを選択した。GPUや小型コアがどこまでデータセンターに浸透できるかは、まだ明瞭ではない。だが、今回のデータセンター変革の動きが本質的な変化であることも確かだ。