後藤弘茂のWeekly海外ニュース

Rambusの特許で揺れる次世代DIMM規格「FB-DIMM」




●FB-DIMMに関する基本的な特許をRambusが保持

 Intelが強力に推進しているサーバー向けDIMM規格「Fully Buffered DIMM(FB-DIMM)」が問題に直面している。今回の壁は、技術上の問題ではなく、特許に抵触するという法的・政治的な問題だ。この問題は、かなり深刻になりつつあり、2006年頭にローンチ予定のFB-DIMMにとって、最大の障壁になる可能性がある。

 また、この件は、単なるメモリ規格の話にとどまらず、IntelのサーバーCPUロードマップも揺るがせている。Intelが次々世代のマルチプロセッサ(MP)サーバーCPUに、FB-DIMMインターフェイスとシリアルFSB(Front Side Bus)「CSI」を実装する計画だったからだ。FB-DIMMに不安が発生すると、ドミノ式に、メモリインターフェイスの統合とシリアルFSB化も揺らぐ。さらに、MPサーバー市場で、IntelがAMDに追い上げられるという結果をもたらす可能性がある。

 複数のDRAM業界関係者によると、JEDEC(米国の電子工業会EIAの下部組織で、半導体の標準化団体)で標準化されたFB-DIMMに関連して、Rambusが基本的な特許を含む2件の特許と申請中特許を持っており、JEDECに対して特許の開示を拒んでいるという。FB-DIMMに関連するRambusの特許で、すでに成立しているのは、米国特許「United States Patent: 6502161」。これは、DIMM上にバッファチップを載せてポイントツーポイント接続するDIMMの基本的な特許「Memory system including a point-to-point linked memory subsystem」だ。

 特許では、DIMMに1個のバッファチップを載せ、DRAMチップはバッファとの間でデータ/コマンド/クロックをマルチドロップタイプのバスで送受信する。バッファチップはホストとの間をポイントツーポイントリンクで結ぶ。ポイントツーポイントリンクは、さまざまな伝送技術を想定しており、その中には複数のユニダイレクショナル(1方向)リンクやエンベデッドクロッキングも含まれる。さらに、複数のDIMMをデイジーチェーンでつなぐトポロジにも触れられている。

 一方、JEDECのFB-DIMMの仕様は、DIMM上にバッファチップ「AMB(Advanced Memory Buffer)」を載せて、DDR2(将来はDDR3も)チップとAMBの間は従来通りのDDR2インターフェイスで結ぶ。AMBとホスト(チップセットまたはCPU)側は、SerDes(Serializer/Deserializer)でシリアル化したユニダイレクショナルな伝送路でポイントツーポイントで結ぶ。また、FB-DIMM上のAMB同士をデイジーチェーン接続することで、複数のFB-DIMMの接続も可能とする。

 こうして見ると、Rambus特許のアイデアは、FB-DIMMの構成と共通しており、特許への抵触は避けられないと見られる。

RambusのポイントツーポイントDIMM特許
(PDF版はこちら)
FB-DIMMブロック図
(PDF版はこちら)

●以前からわかっていたRambusの特許

 もっとも、FB-DIMMのRambus特許の件は、降って沸いた話ではない。それどころか、FB-DIMMが特許にひっかかることは、かなり前から広く知られていた。2004年の秋頃には、RambusがFB-DIMMの特許の一部を握っているという話を複数の業界関係者から聞いた。ただし、その当時は、これが決定的なひっかかりになると騒がれてはいなかった。FB-DIMMの標準化を進めていたJEDECでは、早い段階からJEDECの非会員であるRambusにも接触していた。JEDECの特許ポリシーに基づいた開示、つまり、特許ライセンスを求めていたと見られる。

 Rambus特許が、大きな問題として聞こえてきたのは、FB-DIMMが製品化への最終段階に向かい始めた頃からだ。今年(2005年)の夏頃には、ある業界関係者から「FB-DIMMは規格化のプロセスもほぼ終わり、デバイスも動いている。Rambusがライセンスを下ろしてくれないことだけが問題」と聞いた。8月末の「Intel Developer Forum(IDF)」時には、複数の業界関係者から同じ話が出ており、問題だと認識されていたことがわかる。

 もっとも、IDF時点では、Intelが金銭的に解決するというウワサが流れており、ローンチまでには解決するだろうという楽観ムードがあった。しかし、フタを開けたら、解決しないまま走ってしまっていたというわけだ。Intelも、この問題をもっと簡単に解決できると甘く見ていた可能性がある。

 現状では、今後、この問題がどう展開するのか、まだ不鮮明だ。Intel側の関係者は、10月に「うちはFB-DIMMにかけている。やるしかないので、なんとかする」と語っていた。水面下ではまだ交渉が続いているはずで、どう転ぶか、まだわからない。

 JEDECでも、こうした事態を受けて対応を進めていると言われる。ただし、積極的な対策というより、FB-DIMMについては特許ポリシーを変更するという対応だと、ある情報筋は伝える。もしそうなった場合、ベンダーはRambusと個別に対応し、ライセンスを受ける必要があると見られる。そうしないと、Rambusから提訴された場合、メーカーが個々で対応する必要があると考えられる。

 特許自体は米国ローカルなものなので、日本には影響しない。しかし、米国市場で立ち上がらなかったら、FB-DIMM自体が失速してしまう。おそらく、Intelは最悪の事態を回避するために、奔走しているだろう。

●Intelが引っ張ってきたFB-DIMM

 FB-DIMMはもともとIntelが強く望んだ規格だった。そもそも、JEDECでは、最初は「Hub on DIMM(HoDまたはH-DIMM)」という仮称で、2~3年前から議論を始めていた。当時、あるDRAM関係者から聞いた話では、最初は、Hubチップインターフェイスは、FB-DIMMのようなシリアル伝送を使う方向の議論ではなかったという。「暗黙の了解として64bitデータバス幅にすることや、1モジュール2バンクをドライブすることなどが了解されている」(あるDRAM業界関係者)。ホスト側が、通常のDIMMとHoD互換のインターフェイスにできるように想定していたようだ。

 そのため、初期の構想のままだったら、シリアル化したFB-DIMMのような極端な広帯域化は望めない代わりに、Rambusの特許にもひっかからなかったと見られる。

 しかし、すぐにJEDECでの議論は、現在のシリアル伝送のFB-DIMMへと進んで行った。現在のFB-DIMMのプランは、Intelが主張したラインに非常に近いと言われている。

 ちなみに、サーバーメモリのFB-DIMM化は、メモリインターフェイスを統合するAMDにとっては重大な問題だ。Intelに標準化をコントロールされると、AMDが対応で遅れを取ることになりかねない。そのため、FB-DIMMの規格化では、IntelとAMDがミーティングの度に衝突を繰り返したという。

 ちなみに、AMDは、Intelに対する反トラスト法違反の提訴の訴状の中で、JEDECでのDDR3標準化の過程で、IntelがAMDに不利な変更を故意に加えたと訴えており、JEDEC内での両社の確執は深い。しかし、どんどん準備を進めるIntelに押される形で、現在のスペックのFB-DIMMへと標準化が進んで行ったという。

 HoDは、最初はDDR3のためのソリューションとして話が持ち上がったが、すぐにDDR2にも使われることになった。「DDR2を(サーバーでも)800Mbpsまで伸ばすための策として浮上してきた」(あるDRAM業界関係者)からだ。

●高速化と大容量化の両立では有効なFB-DIMM

 サーバーサイドでFB-DIMMが必要となる理由は、メモリ高速化とシステムのメモリ搭載量の両立を図ることが難しいためだ。現在のDRAMインターフェイスは、1チャネルに複数のDIMMが接続されるマルチドロップ型バスとなっている。こうしたバスでは、分岐(stub)からの反射によって信号の品質が落ちるため、Registered DIMMでも高速化が難しい。そのため、高速化するに従って、分岐の数を減らす、つまり1チャネルに接続できるDIMMの数を減らさなければならなくなっている。この問題は、インターフェイス技術の改良によりある程度抑えられる。しかし、高速化すると、分岐を減らさなければならないという原則は変わらない。

 だが、ポイントツーポイント接続でチップセットとDIMMを結ぶと、高速化はずっと容易になる。PCの汎用バスが、マルチドロップバスのPCIから、ポイントツーポイントのPCI Expressに移行したこととよく似ている。高速化=ポイントツーポイント接続は、ほぼ業界の共通認識と言っていい。

 FB-DIMMでは、AMBインターフェイスはDRAMの6倍の転送レートで動作する。DDR2-800ならピン当たり4.8Mbpsと、非常に高い転送レートとなる。あるDRAMベンダーによると、Intelは、このFB-DIMMインターフェイスで、FR4基板で10GHzまで大丈夫と説明したという。逆算すると、DDR3-1600までを睨んで、倍率を決定したことがわかる。

 FB-DIMMの場合、DIMM同士はAMBでデイジーチェーン接続される。そのため、1チャネル当たり最大8DIMMを搭載できる。チャネル当たりのメモリ搭載量は倍増する。しかも、FB-DIMMではインターフェイスが高速化する分、ピン数が少なくなるため、多チャネル化も容易になる。

 FB-DIMMは技術的には非常に有効な手段で、サーバーメモリの高速化と大容量化を両立させることができる。また、バッファチップAMBを介することで、コントローラチップ側の設計を容易にすることもできる。コントローラは、次々に登場するDRAM規格に合わせてメモリコントローラを設計するのではなく、AMBに対してのインターフェイスを設計をすればいいからだ。

 こうした利点の反面、FB-DIMMには難点もある。バッファチップを使うためDIMMコストが上がり、メモリアクセスレイテンシも伸びてしまう。コストとレイテンシは気にせずに、大容量メモリ搭載と広帯域が欲しいアプリケーション向けだ。特に、従来からメモリリピータを使っていたようなハイエンドシステムへは、マッチする。

 問題は、こうした技術的背景から、FB-DIMMが、今後のDRAMにとって不可欠に近い技術となっていることだ。少なくとも、DDR2/DDR3で容量増大も維持しながら高速化して行くためには、サーバーではFB-DIMMが欠かせない。そして、さらに重要なのは、FB-DIMMは、Intelにとって、サーバーCPUへのメモリインターフェイスとシリアルFSBの統合のための鍵となっていることだ。

□関連記事
【10月31日】【海外】リンクしていたIntelのシリアルFSBとFB-DIMMプロジェクト
http://pc.watch.impress.co.jp/docs/2005/1031/kaigai221.htm
【10月27日】【海外】IntelのサーバーCPU計画に大幅な遅れ
http://pc.watch.impress.co.jp/docs/2005/1027/kaigai219.htm

バックナンバー

(2005年11月11日)

[Reported by 後藤 弘茂(Hiroshige Goto)]


【PC Watchホームページ】


PC Watch編集部 pc-watch-info@impress.co.jp ご質問に対して、個別にご回答はいたしません

Copyright (c) 2005 Impress Corporation, an Impress Group company. All rights reserved.