後藤弘茂のWeekly海外ニュース

IntelのメモリロードマップにDDR4がない理由



●メモリ業界の動向を決めるIntelのメモリロードマップ

 PCメインメモリのDDR3時代は長く続く。次のDDR4への移行が本格的に始まるのは2014年までずれ込むからだ。鈍化するメインメモリの高速化を埋め合わせるように、DRAMチップを積層したりCPUパッケージに載せるテクニックが浸透するだろう。その一方で、低電力化したDDR3Lと、携帯電話向けのLPDDR3メモリが部分的にPC市場に入ってくる。メモリの焦点が、速度と容量から、電力へとシフトする。一言で要約すると、PCのメモリは激変の時代に入る予兆を見せ始めるが、デスクトップのメインメモリだけを見ていると高速化がゆったりとしたペースでしか進まない。

 Intelは、サンフランシスコで開催した技術カンファレンス「Intel Developer Forum(IDF)」で、同社のメモリ対応ロードマップを明らかにした。PC市場を独占し、サーバー市場の多くを抑えるIntelのメモリロードマップは、メモリ業界にとって最大顧客の対応ロードマップということで、市場を左右する最大の要因となっている。そして、今回のロードマップには、重要なポイントがいくつもあった。

 まず、メインメモリのDDR4への移行に対するIntelの不思議なほどの“やる気のなさ”。次に、1種類のメモリを全てのニーズに対応させる“ワンサイズフィッツオール”路線からのIntelの脱却の意志。さらに、ボード直づけや積層パッケージなど組み込み型のメモリ実装の導入の検討。サーバーでのメモリ大容量化では、新たなバッファードDIMMの導入。そして、Intelの今後の展開では、シリコン貫通ビア(TSV:Through Silicon Via)技術の影が見え隠れし始めた。

●Intelのメモリロードマップに欠けているDDR4

 下のスライドはIntelがIDFで公開したメモリロードマップだ。非常にラフなロードマップだが、それでも重要なポイントがいくつも見える。

IDFで公開したメモリロードマップ

 まず、現時点でも、まだDDR4がロードマップにない。DDR4は、DDR3の2倍のデータ転送レートを実現する次世代DRAM規格だ。1,600Mbps(1.6Gbps)から4,266Mbps(4.266Gbps)をカバーする。インターフェイスはシングルエンデッド信号(クロックとストローブはディファレンシャル信号)で、標準では1.2VのI/O&コア電圧でスタートする(1.1Vや1.05Vのコア電圧も検討)。従来のマルチドロップバスからポイントツーポイント接続(実際には2ランクUnbuffered DIMM(UDIMM)をサポートするのでポイントツー2ポイント)へと切り替える。下は昨年(2010年)のJEDECの説明をベースにしたDDR4のチャートだ。

DDR DRAMの転送レート
PDF版はこちら
DDR4とDDR3
PDF版はこちら

 JEDEC(米国の電子工業会EIAの下部組織で、半導体の標準化団体)では、DDR4の正式仕様の発表を来年(2012年)中盤に計画している。DRAMベンダーはすでに現行の30nm台のプロセス技術でDDR4チップのプロトタイプを製造している。また、JEDEC幹部は、これまでDDR4の製品の導入は2012年からだと説明して来た。

 ところが、Intelのロードマップには、今のところDDR4の姿がない。IDFのメモリセッションでメモリロードマップの説明を行なったGeof Findley氏(SrManager, Platform Memory Operation, Intel)は次のように説明する。

 「DDR4は2013年から市場に出始める。しかし、非常に少ない量に留まるだろう。本格的に立ち上がるのは2014年で、2015年になるとDRAM市場全体の30~40%をDDR4が占めるようになるだろう」。

 DDR4の市場浸透の本格化が2014年になるとIntelが言い切れるのは、もちろん、Intelのメモリサポート計画がそうなっているからだ。現状では、2013年のCPU「Haswell(ハスウェル)」でも、PC向けバージョンは、まだDDR3サポートのままで、DDR4の計画がない。Intelは2014年から、DDR4サポートへと踏み出すつもりだと見られる。

●サーバーから始まるDDR4の浸透

 下はIntelが示した業界のDRAM技術の移行予測だ。右のチャートを見ると、濃いブルーで示されたDDR4が、2014年に10%ほど浸透する見込みが示されている。本格的に濃いブルーが薄いブルーのDDR3を凌駕するのは2015年に入ってからだ。

DRAM技術の移行予測

 JEDEC(米国の電子工業会EIAの下部組織で、半導体の標準化団体)が昨年7月のメモリカンファレンス「MemCon 10」でDDR4の説明を行なった時も、DDR4の浸透が遅くなると予測していた。その時、JEDECのBill Gervasi(ビル・ジャヴァーシ)氏(Discobolus Designs)は、DDR4への移行は2013年とこれまでしてきたが、現実的には2015年になるだろうと訂正している。下のスライドがその説明だ。その時点から、すでにDDR4の浸透が遅くなる(Intelがサポートに熱心ではない)ことは織り込み済みだったことになる。

MemCon 10での説明でも、DDR4の浸透が遅くなると予測されていた

 また、DDR3を振り返ると、同メモリも2007年に登場したが浸透するまでに3年かかっている。DDR4も同じようなペースを辿ることを意味する。もっとも、DDR3の場合は、Intel側はサポートはしたものの、積極的に移行を後押ししなかっただけだ。今回は、DDR4のサポート自体が後ろへとずれ込む。

 もっと正確には、PCでのDDR4のサポートが遅れるが、サーバー側は、それよりやや早くなる可能性が高い。IDFのメモリセッションで、Intelとともにセッションを行なったSamsungのHarry Yoon氏(Principal Engineer, Samsung)は次のように説明した。

 「新メモリの立ち上げでは、これまではPCが先で、サーバーが後だった。しかし、DDR4の場合はサーバーが先となる。なぜなら、DDR4では電力/パフォーマンスが、より効率的になるのでサーバーに向いているからだ」。

 JEDECでもDDR4をまずサーバーから浸透させる計画で動いている。また、DDR4の電力効率が高いという特長は、モバイルにも向いている。そのため、サーバーの次は上位のノートPCにも浸透すると推測される。

モバイル向けにもDDR3を浸透

●省電力化が進むDDR4のスペック

 DDR4は、電力面ではどの程度の利点があるのか。下は昨年のJEDECのプレゼンテーションでは、PC-133 SDRAMの消費電力を1とした場合、1.2Vの通常電圧版のDDR4 3,200Mbpsは約3倍、DDR4 4,266Mbpsは約4倍のアクティブ消費電力になるという。電力が上がるように見えるが、帯域当たりではDDR3の3分の2程度に下がる。DDR4では1.1Vや1.05Vも検討されており、それらの規格ではさらに電力が下がる。

DDR4の消費電力

 アクティブ時の低電力化に最も寄与しているのは、製品発表時に1.2Vという低いコア&I/O電圧だ。1.2Vは、モバイル機器向けのLPDDR2メモリと同じだ。電圧ではモバイル向けメモリのレベルにまで降りてくる。ちなみに、昨年のメモリカンファレンス「MemCon Tokyo 2010」でエルピーダメモリは、1.2VでDDR4のパフォーマンスの製品を製造できるようになるのは、30nm台前半から20nm台後半のプロセス技術になるだろうと説明していた。現状では、DRAMベンダーは20nm台へと移行しつつあるため、1.2Vの要求は満たすことができるだろう。

 JEDECは今年(2011年)8月にDDR4規格の概要を発表した。下がその一覧で、まだ詳細は明らかになっていないが、低電力化に効果的な機能がいくつか含まれる。疑似オープンドレイン(POD:Pseudo Open Drain)やギアダウンモードの採用などだ。また、バス効率を上げる技術としてバンクグルーピング(バンクグループ毎の独立したアクセスが可能)が導入される。

DDR4の仕様
PDF版はこちら

 さらに、IDFのHynixのセッションでは、DDR4待機時の電力を下げる技術も導入されていることが説明された。チップ温度に応じて頻度を調整できる待機時のセルフリフレッシュモードなどだ。下のバッテリライフの表はIDFのHynixのスライドで、待機モード時には動作時より最大36%も電力を引き下げが可能であることが示されている。Samsungは、こうしたDDR4の特長のため、DDR4がモバイルで低電圧版DDR3Lを置き換えて行くだろうと見ている。

DDR4は低消費電力が特徴で、次第にDDR3Lを置き換える

●遅いメインメモリの高速化を補う技術が必要

 利点はあるもののDDR4の本格的な導入は、2014年からとなる。これは、DDR3からDDR4への移行に5年かかることを意味する。DDR3からDDR4へは転送レートが2倍になるため、PCメモリは、5年でようやく2倍のペースでしか高速化しないことになる。DRAMインターフェイス技術の移行は、ますます時間がかかるようになっている。

 そのため、2年でトランジスタ数が2倍になり、高パフォーマンス化を続けるCPUとは、ますますギャップが開くことになる。CPUは、今後は増えたトランジスタを演算パフォーマンスの高いGPUコアに割り当てるため、ますますメモリ帯域ニーズが増える。そのため、DRAM技術とのギャップは開いて行くことになる。

DRAMのロードマップ
PDF版はこちら
CPUとメモリのギャップ

 Intelのメモリサポート戦略は、プロセッサ側のパフォーマンスアップに追いつこうとするどころか、ギャップをさらに広げる方向へと動いていることがわかる。これは非常に奇妙なことだ。IntelもAMDやNVIDIAと同様に、メモリ帯域を少しでも広げたいと望んでいるはずだからだ。そうしなければ、今後のCPUはメモリネックでパフォーマンスが上がらなくなってしまう。

 そのため、当然の帰結として、Intelはメインメモリの高速化に頼らない何らかのメモリソリューションを準備していると推測される。ハイエンドのスーパーコンピュータ向けにはシリコン貫通ビア(TSV:Through Silicon Via)技術を使ったメモリ技術「Hybrid Memory Cube(HMC)」がある。しかし、メインストリームPC向けにも、別な手段を計画しているはずだ。そうしなければ、GPUコアをどんどん強化して行くことはできない。

 実際、Intelは、メインストリームPC向けのHaswellの最上位構成では、オンパッケージまたはオンダイのどちらかでeDRAMチップを載せるプランを検討していると言われている。おそらく、GPUコアのメモリバッファとして使うと見られる。カスタムDRAMを、オンパッケージでCPUダイと結ぶなら、極めて広帯域のメモリを実現できる。ただし、コストアップは避けられない。

Haswellの概要
PDF版はこちら