元麻布春男の週刊PCホットライン

メモリインターフェイスがシリアルになるとき



●不透明なメモリの動向

 Intelが今年発表する新しいチップセットに共通するフィーチャーは、PCI ExpressのサポートとDDR2メモリのサポートだ。

 PCI Expressをサポートしたチップセットは基本的に既存のAGPをサポートしないため、グラフィックスオプションは内蔵かPCI Expressのどちらか、ということになる(一応、PCIバスというのも不可能ではないが)。このため、グラフィックスチップベンダも早期からPCI Express対応に向けた準備を行なっており、IDFの会場でもPCI Expressに対応した製品のデモを見かける(細かく見ていくとブリッジを使うか、ネイティブサポートか、など色々ありそうだが)。現在、拡張スロットを利用する周辺デバイスで最もポピュラーなものがグラフィックスカードであることを考えれば、PCI Expressの立ち上がりは、初期にはつきものの互換性問題は生じるかもしれないが、比較的順調なのではないかと期待される。

【図1】チップセットはDDRとDDR2を両方サポートする

 それに比べてよく分からないのはDDR2メモリだ。基本的にメモリの動向は市場に大きく左右されるため、予測がつきにくい。IntelのDDR2メモリサポートチップセットは、既存のDDR(DDR1)もサポートしており、DDR1とDDR2のどちらが主流になるかの見通しは、チップセットだけでは決められない。マザーボードベンダも頭を悩ませていることだろう。特に、熱設計に余裕があり、DDR400が利用可能なデスクトップPCの場合、DDR2メモリのスタートポイントであるDDR2 400/533では性能向上率が小さく、価格動向に左右される可能性が高い。

 逆にDDR333までのサポートとなっているサーバーやノートPC向けは、DDR2 400/533による性能向上率が高くなる上、DDR2の省電力性(DDR333に対し約40%)もアピールする(最近はサーバーもブレードタイプなど熱の問題はノートPCなみだ)。

 当初は避けられないDDR2のコスト高(ダイサイズのペナルティだけでなく新しいパッケージを採用することによるコストアップも当初は避けられない)も、サーバー向けのRegistered DIMMやノートPC向けのSO-DIMMの方が吸収しやすいという声も聞かれる。ただデスクトップPC向けのUnbuffered DIMM(クライアントPCで使用される通常のDIMM)に比べると流通量が小さいこともあり、全体の動向を左右するほどのインパクトになるのかどうか、よく分からない。図1は今回のIDFにおけるIntelの移行予測図ともいえる図だが、実にファジーでとらえどころがない。IntelでさえもDRAM市場を完全に予測するのは不可能であるということを如実に示している。

●サーバー用メモリモジュールFB-DIMM

 さて、今回のIDFで興味深かったのは、Intelがサーバー向けに新しいメモリモジュールを提唱したことだ。新たに提唱されたFully Buffered DIMM(FB-DIMM)は、その名前の通りメモリインターフェイスのすべてをバッファリングするもの。現在サーバー向けに使われているRegistered DIMMがクロックとアドレスをバッファリングしているのに対し、データも含めてすべてバッファリングすることからつけられた名称だ。が、この説明だけではFB-DIMMで最も大きく変わる部分は見えてこない。FB-DIMMにおける最大の変更点は、メモリインターフェイスがシリアル化される点にある。

 ただし、ここでいうメモリインターフェイスは、実際のDRAMチップのインターフェイスではない。チップセット(メモリコントローラ)からメモリモジュールへのインターフェイスがシリアル化されるのである。したがって、メモリモジュール上に実装されるDRAMチップそのものは、通常のDRAMと変わりがない。通常と同じインターフェイスを持つDRAMチップは、バッファチップ(Advanced Memory Buffer: AMBと呼ばれる)に接続される。シリアライズ/デシリアライズ機能を持ったAMBが、メモリコントローラからのシリアルインターフェイスに接続される、という構成だ(図2)。

【図2】FB-DIMMの構成 【図3】メカニカルプロトタイプ

 メモリコントローラ~DIMM間のシリアルインターフェイスは、PCI Expressに類似したPoint-To-Pointのものを使うとなっており、ReadとWriteも独立しているため、同時に読み書き可能なことによる性能向上が見込まれる。逆にこの図2でPCI Expressと決定的に異なっているのは、クロック信号が独立していることで、PCI Expressではクロックは8B/10Bエンコーディングにより埋め込まれているのに対し、FB-DIMMでは8B/10Bエンコーディングによるペナルティを嫌いコモンクロックを用いている(メモリ専用バスと汎用バスの違いも当然あるだろう)。

 9~36個のDRAMチップを搭載可能なDIMMの物理的な大きさは、通常の(240ピンの)DDR2 DIMMと同じ。インターフェイスのシリアル化により、接続に必要なピン数は大幅に減らすことができる(69ピン)が、あえてモジュールは同じものを使う(もちろん誤挿入防止のため、キーの位置は異なる)。

 FB-DIMMはこれまでのメモリバスにつきものだったスタブを排除したこと、バスのシリアル化によりピン数を大幅に削減したことで、1つのメモリコントローラに最大8本のDIMMを接続することができる。また、少ないピン数のインターフェイスはマルチチャネル化が容易で、デュアルチャネルのDDRインターフェイスとほぼ同じピン数であれば6チャンネルをインプリメントすることが可能だ。チャネルあたりのメモリ容量の増大とメモリチャネルの拡張により、サーバーで必要とされる大容量メモリの搭載が可能になる。

 もちろん多チャンネル化は性能の向上にも有効だ。図4はメモリコントローラに4本づつのメモリを実装したエントリークラスのサーバーの性能(通常のDDR2はデュアルチャネル、FB-DIMMは4チャンネル)だが、多チャンネル化によりメモリスループットのピークが高く、高いメモリスループットでのレーテンシも低くなっている。この傾向は大量のメモリを搭載すればするほど強まり、FB-DIMMのスループットの高さは際立ってくる。ミッドレンジサーバーを想定した図5をご覧いただきたい。

【図4】メモリによるエントリークラスのサーバー性能差 【図5】同じくミッドレンジサーバーの性能差 【図6】FB-DIMMのロードマップ

●Direct RDRAMの失敗を生かす

 メモリバスのバス幅を狭くする、あるいはシリアル化する、というのはIntelの悲願であった。が、その最初の試みであるDirect RDRAMの開発と採用は、ご存知のように失敗に終わった。今回のFB-DIMMは、この失敗の教訓がいたるところにちりばめられている。

 DRAMベンダに特定仕様のDRAMを作らせるのではなく、あくまでも一般の(汎用品の)DRAMで対応可能にすること、インターフェイス技術におそらくIntelが保有しているであろうPCI Expressの基礎技術を流用しライセンス料の問題等を避けていること、などだ。加えて、いきなり採用を発表して反感をかったことを反省してか、今回は事前の業界への根回しができており、IDFの中日である2月18日に推進団体であるThe Memory Implementers Forumの旗揚げをDRAMベンダ、メモリモジュールベンダ、サーバーベンダの賛同の上で行なっている。

 FB-DIMMが直接一般のクライアントPCに使われることはおそらくないだろうが、メモリインターフェイスのシリアル化という点では非常に興味深い。半導体技術の進歩により、AMBのような機能を実現するためのダイサイズがどんどん小さくなっていけば、コストの点でAMBを搭載することのデメリットは小さくなっていく。DRAMチップの中に内蔵することが可能なくらい小さくなれば、一般のクライアントPCが同様な技術を採用する日もくるかもしれない。

□Intelのホームページ(英文)
http://www.intel.com/
□IDF Spring 2004のホームページ(英文)
http://www.intel.com/idf/us/spr2004/
□関連記事
【2003年7月29日】【海外】次世代メモリモジュール規格で激突するIntelとAMD
http://pc.watch.impress.co.jp/docs/2003/0729/kaigai007.htm

バックナンバー

(2004年2月20日)

[Text by 元麻布春男]


【PC Watchホームページ】


PC Watch編集部 pc-watch-info@impress.co.jp 個別にご回答することはいたしかねます。

Copyright (c) 2004 Impress Corporation All rights reserved.