【Server Memory Forum 2011レポート】
SNS時代のデータセンターが要求する次世代DRAMの姿

Mobile Memory Forum 2011会場入り口の看板

会期:2011年11月1~2日(現地時間)

会場:米国カリフォルニア州サンタクララ Hiton Santa Clara



 米国の半導体標準化団体JEDECは、サーバーやハイエンドPCなどに使われる次世代DRAMの技術講演会「Server Memory Forum(サーバーメモリフォーラム)」を米国カリフォルニア州のシリコンバレーで2011年11月1~2日(現地時間)に開催した。

 JEDECは現在、サーバー/PC向けとスマートフォン/タブレットPC向けの2つの分野に適したDRAMの技術仕様をそれぞれ、策定中である。スマートフォン/タブレットPC向け(モバイル向け)次世代DRAMの技術仕様の一部は、2011年6月下旬にJEDECが韓国と中国、台湾で開催したイベント「Mobile Memory Forum 2011」で公表した。この「Mobile Memory Forum 2011」を対をなす、サーバー/PC向けDRAMのイベントが「Server Memory Forum 2011」である。

 「Server Memory Forum 2011」は11月1日の午前から午後、11月2日の午前までのほぼ1日半にわたるイベントだった。講演の本数は1日の午前が6本、1日の午後が7本、2日の午前が5本の合計18本である。同時に2本の講演が実施されることはなく、参加者はすべての講演を聴講することができた。ただし講演の本数が1日で13本というのはかなり多く、目まぐるしかった印象はぬぐえない。

 講演のテーマは、1日の午前がサーバーとそのメモリシステムに関する講演、1日の午後がDRAMとDRAMモジュールの概要に関する講演、2日の午前がDRAMの詳細な仕様に関する講演とおおまかに分かれていた。一部に乱れはあるものの、全体から入り、詳細へと分かれていく素直な構成である。本レポートでは、サーバーとメモリシステムに関する講演のトピックスをお届けする。

●モバイル機器とSNSがインターネットの主役になった

 イベント初日である1日の最初には、米国Samsung Semiconductorでメモリマーケティングおよび製品プランニング担当バイス・プレジデントをつとめるJim Elliott氏が「Green Memory Technology」のタイトルで講演した。

 Elliot氏は、インターネットの主役が「PCと電子メール、ポータル・サイト」から、「モバイル機器とSNS(ソーシャル・ネットワーキング・サービス)」に移行した現状をデータから説明した。まずPCからモバイル機器への移行では、2008年にはインターネットのトラフィックの95%がPCからのリクエストであったのに対し、2011年の現在では、トラフィックの60%がモバイル機器からのリクエストになっていると説明した。

 続いてインターネットの使い方の変化に触れた。ユーザー数で見ると電子メールのユーザーの増え方よりもSNSユーザーの増え方が著しく、2年前の2009年7月には、SNSユーザーの数が電子メール・ユーザーの数を追い越した。利用時間でSNSが電子メールを追い越したのはもっと早く、2007年11月の時点だった。電子メールは利用時間が頭打ちになっているのに対し、SNSの利用時間は増え続けている。

 さらにはポータル・サイトの利用時間は近年、減少傾向にあり、この2011年6月にはSNSが利用時間でポータル・サイトを追い越したとのデータを示した。そしてSNSが備えるリアルタイム性の例として、2011年3月11日の午後2時30分と午後2時46分(いずれも日本時間)におけるTwitterの日本発着のリプライ数を見せた。東日本大震災が発生した午後2時46分には、日本発着のリプライが一気に増加していた。

電子メールからSNS(ソーシャル・ネットワーキング・サービス)への移行ポータル・サイトの利用時間とSNSの利用時間の推移2011年3月11日の午後2時30分(左)と午後2時46分(右)におけるTwitterの日本発着のリプライ数

●サービスの特性に応じてサーバーのハードウェア仕様を選択

 そのSNSの代表と言えば、Facebookである。「Server Memory Forum 2011」では、FacebookでCapacity Engineering & Analysis担当ディレクターを務めるJason Taylor氏が「Capacity at Facebook」と題して講演した。

 Facebookのユーザー数は全世界で約8億人に上る。膨大なユーザーへのサービスを支えるデータセンターは、米国のオレゴン州、カリフォルニア州、ノースカロライナ州、バージニア州に設置されている。

 Facebook社は自社のサービスを提供するデータセンターに、独自開発のサーバーを設置し、運用している。Taylor氏は講演で、仕様の異なる6種類のサーバー・ハードウェアの概略を示すとともに、メモリサブシステムの内容を説明した。

 6種類のハードウェアは用途およびサービス別に構築されている。(1)ウェブ(Web)、(2)メモリキャッシュ(Memcache)、(3)データベース(Database)、(4)大規模分散処理(Hadoop)、(5)画像共有ストレージ(Haystack)、(6)フィード(Feed)、がある。それぞれのハードウェアには異なるCPU、メモリ、ストレージのリソースを割り当てる。例えばWebサーバーはハイエンド(高性能)のCPU、ローエンド(小容量)のメモリ、ローエンド(小容量)のストレージという組み合わせになり、HaystackサーバーはローエンドのCPU、ローエンドのメモリ、ハイエンド(大容量)のストレージという組み合わせになっている。

Facebookにおけるデータセンターの構造。Webサーバーやキャッシュ、広告サーバーなどのフロントエンド・クラスターとサービス・クラスター、バックエンド・クラスター(データベース)で構成されているデータセンターにリクエストが到着してから、返信するまでの各サーバーの動き
サーバーのハードウェア構成。用途の特性に適するように、CPU、メモリ、ストレージを選択しているFacebookにおけるWebサーバーの変遷。毎年のように新しいハードウェアを開発している

 メモリサブシステムでは、ストレージにHDDの代わりにフラッシュメモリを利用することが処理性能の向上と消費電力の低減に役立っていると位置づけた。半導体メモリに対する要求では、現在のDRAMよりもレイテンシが長く、スループットが低くても良いので価格が10分の1と安価なRAMが欲しいと述べていた。

フラッシュメモリのストレージ応用(HDD代替)とメモリ応用(DRAM代替)に関するコメント半導体メモリ製品に対する要求

●サーバーの放熱に必要な電力を減らす

 データセンターが消費する電力は年々増加しており、地球環境に与える影響が無視できないものとなっている。また電力コストの点からも、大きな問題である。この点に関連してMicrosoftでGrobal Foundation ServicesのDistinguished Engineer兼Chief Architectを務めるDileep Bhandarkar氏が、「Energy Efficiency Considerations in Large Datacenters」と題して講演した。

 大規模データセンターの消費電力は大きく2つに分けられる。1つは、サーバーそのものが消費する電力。もう1つは、サーバーに電力を供給するための損失とサーバーを冷却するための消費電力である。

 そこでデータセンターでは、電力効率(PUE:Power Usage Effectiveness)を全体の消費電力とサーバーの消費電力の比率で表現している。サーバーそのものが消費する電力以外の電力消費がゼロになると、PUEは1になる。

 Bhandarkar氏の講演によると、2005年以前のデーターセンターのPUEはおおよそ「2」であった。つまり、サーバーが1Wを消費すると、サーバー以外の電力が1W消費されていたということになる。これではあまりに電力効率が低いということで、Microsoftでは2006年以降、PUEを改善したデータセンターを次々と開発してきた。

 最も古いデータセンターは、サーバーを積み上げて配置し、その建物全体を空調機によって冷却して適切な温度環境を維持するというもの。空調機の運転コスト(電力コスト)が大きく、PUEが2前後にとどまっていた。これをMicrosoftは「第1世代」と呼んでいる。

 続く「第2世代」は、ラックマウントによってサーバーの設置密度を高めたデータセンターである。PUEは1.4~1.6に向上した。

 そして「第3世代」が現行世代のデータセンターとなっている。コンテナにサーバーを高い密度で収納し、コンテナ内部だけを冷却することで、建物全体に冷房をかけずに済む。PUEは1.2~1.5とさらに向上している。

 続く「第4世代」は、Microsoftが「ITPAC(IT Pre-Assembled Components)」と呼ぶモジュールにサーバーを収納するもので、自然空冷と水冷によって放熱を実施する。建物そのものを省き、モジュールを屋外に設置することで電力効率を高める。PUEは1.05~1.15と極限に近付く。

Microsoftが全世界に設置しているデータセンターデータセンターの建設費用内訳。電気部品と機械部品が4分の3以上を占めるデータセンターの消費電力。サーバーそのものが消費する電力と、それ以外の消費電力(送電損失、冷却用消費電力、蓄電池用消費電力など)に分けられる
電力効率(PUE)を改善したデータセンターの開発。第1世代~第4世代があるITPACサーバーの躯体。米国ワシントン州クインシーでインストール中

●性能/消費電力から(性能/消費電力)/コストへ

 このようにデータセンターとサーバーは、電力効率をさらに高めようとしている。ここで見逃せないのが、システムの評価指標の変化だ。

 「Server Memory Forum 2011」でスモールコアサーバー(詳しくは後藤氏の記事を参照)について講演したAMDのDon Newell氏は、評価指標が過去は「性能(Peformance)」であったのが最近は「性能/消費電力(Power)」に変わり、現在は「(性能/消費電力)/コスト」へとさらに変化していると述べていた。MicrosoftのBhandarkar氏も、サーバーのハードウェア設計では「Powerformance/Watt/Dollar」、すなわち「(性能/消費電力)/コスト」を考慮しなければならないと述べている。

システムの評価指標の変化。AMDのDon Newell氏による講演スライドからサーバーのハードウェア設計で考慮すべきこと。MicrosoftのBhandarkar氏による講演スライドから

 重要なのは、コストが以前よりも強く意識されてきたことだ。「性能/消費電力」が2倍になってもコストが2倍になっては評価はイーブンであり、システムを変更する意味はない、という判断になる。今後のメモリサブシステムも、「(性能/消費電力)/コスト」での数値が向上することが、改良の目安となる。

 繰り返しになるが、FacebookのTaylor氏は「速度がいくらか下がっても良いからコストが10分の1のDRAMが欲しい」と述べていた。具体的にはDRAMのレイテンシが長くなることと、スループットの低下を許容していた。通常はDRAMのレイテンシを長くし、スループットを下げると消費電力が下がる。すなわち電力コストが下がる。

 JEDECがこれまで検討してきたサーバー/ハイエンドPC用次世代DRAM「DDR4」の仕様は、現行のDDR3よりもスループットを高めするとともに、動作周波数当たりの消費電力を下げることが主眼におかれている。コスト(価格)はDDR3に対してプレミアを付ける方向である。

 DDR3 DRAMよりも消費電力の低いモバイルDRAMも、コスト(価格)はDDR3よりも高い。またパッケージはシリコンダイ積層といった特殊なものになりそうである。サーバーで一般的なDRAMモジュールとはまったく違う。

 今、ハイエンドで最もホットなDRAMユーザーはデータセンターであり、SNS企業である。彼らが要求するDRAMの姿と、JEDECがこれまで検討してきた次世代DRAMの仕様には、ズレがあるように感じる。ズレを明確化して次世代DRAMの仕様に反映させていく作業が、今後は重要になりそうだ。

(2011年 11月 11日)

[Reported by 福田 昭]