Click


後藤弘茂のWeekly海外ニュース

WillametteのためにIntelはRDRAMに固執する


●Willametteのバス帯域にマッチするRDRAM

 なぜIntelは、次世代メモリとしてDirect Rambus DRAM(RDRAM)に固執するのだろう。答えは簡単だ。Intelが、来年末から出荷する次世代MPU「Willamette(ウイラメット)」に、RDRAMが必要だと考えているからだ。別に、これはそれほど意外な推測ではない。他にもそう論じる人(*)はいる。

 WillametteでなぜRDRAMが必要なのか、その理由を詳しく説明すると次のようになる。まず、Willametteでは、CPUとチップセットを結ぶフロントサイドバス(FSB)は200MHzのダブルデータレートになり、400MHz相当でデータ転送を行なう。バス幅が64ビットだとすると3.2GB/secのデータ転送レートになる。今の100MHz FSBの4倍のバス帯域だ。ちなみに、この帯域は、AthlonのFSB帯域の2倍だが、これはWillametteのFSBがAthlonのようにポイントツーポイント(CPUとチップセットを1対1で結ぶ)アーキテクチャを取っていないためだ。Willametteでは2CPU構成、Willametteのサーバー/ワークステーション版である「Foster(フォスタ)」では4CPU構成までが、1本のFSBを共有するようだ。

 Willametteのこのフロントサイドバス(FSB)帯域は、当然、WillametteのCPUコアの処理能力につりあうように設計されている。WillametteではP6(Pentium ProからIIIまでのCPUコア)アーキテクチャよりも処理能力が高く、MPUの内部クロックは1GHz(0.18ミクロン時)以上で登場すると見られている。つまり、それに見合うだけFSB帯域を上げる必要があるのだ。

 おそらくWillametteでは、デュアルプロセッサ構成程度までなら、MPU内部のパイプラインをフル回転させるに必要なFSB帯域が3.2GB/secと見込んでいるのだろう。となると、3.2GB/secのデータ転送レートに見合うメインメモリの帯域が得られないと、性能が発揮できない可能性が出てくる。つまり、3.2GB/secのメモリ帯域が理想的で、その解答がRDRAMというわけだ。

 「えっ、RDRAMの帯域はピークでも1.6GB/sec(400MHzで駆動するPC800の場合)のはず」、とここで思った人もいたかもしれない。そう、その通り、RDRAMの帯域は“1チャンネル”当たり1.6GB/secにしかならない。だが、Willamette用のチップセット「Tehama(テハマ)」は、RDRAMインターフェイスを2チャンネル(32ビット幅)搭載しているのだ。RDRAMが2チャンネルなら、メモリ帯域の論理値は3.2GB/secになる。WillametteのFSB帯域とピタリと合ってしまうのだ。TehamaはSDRAMも何らかの方法でサポートする可能性は高いが、基本はRDRAMのはずだ。


●メモリの最小単位を小さくできる点がRDRAMの利点

 Willametteでメインメモリの帯域をフロントサイドバス(FSB)の帯域と同じにしたいのはわかった。しかし、それがなぜRDRAMでないとならないのだろう。

 そもそも、IntelがRDRAMを選んだ2年前に、メモリ帯域を上げる技術の選択肢はそう多くはなかった。RDRAMのほかには、今話題になっているDDR(ダブルデータレート) SDRAM、そして今はほとんど目がなくなったSLDRAM(旧Sync Link DRAM)程度だった。では、SLDRAMはとりあえずおいておくとして、この時になぜDDR SDRAMでなくRDRAMだったのだろう。

 その理由のひとつは、メモリの最小構成単位(Granularity)を小さくできることだ。つまり、RDRAMなら小さな単位ごとにメモリ増設ができるが、DDR SDRAMではそうはいかないと見られているのだ。

 どうしてそうなるかというと、メモリインターフェイスのビット幅に違いがあるからだ。RDRAMのインターフェイスはビット幅が狭く、ピン当たりの転送レートが高い。RDRAMの場合、1チャンネル(16/18ビット幅)で1.6GB/sec(PC800の場合)、2チャンネル(32/36ビット幅)のメモリ帯域になる。対してDDR SDRAMの場合、PCで一般的な64ビット幅のインターフェイスで、266MHzの時に2.1GB/sec、400MHzの時に3.2GB/secになる。

 さて、Willametteは2001年以降のデスクトップのメインになる。その時のDRAMチップは、順調に大容量化が進めば、現在の64Mビット品から128Mビット品へと主流が移り、さらに256Mビット品へとシフトが見え始める頃だ。その時点でも、メインメモリに使うDRAMとして最適な語構成が×16ビット幅だとすると、RDRAMとDDR SDRAMではメモリ構成の最小単位が違ってくる。

 RDRAMでは2チャンネルの32ビット幅にした場合でも最低2個のDRAMチップですむ。つまり128Mビット品なら32MB、256Mビット品でも64MBの容量が最小構成になる。つまり、この単位で増設できるということだ。一方、DDR SDRAMで×16ビットのDRAMチップを使った場合、64ビットインターフェイスでは4個で構成することになる。そうすると、最小単位は128Mビット品で64MB、256Mビット品なら128MBになる。

 つまり、Intelは、PCの搭載メモリは帯域は急激に増やす必要があるが、容量はそれほど急激に増やす必要はないと考えたのだ。その結果、ピン当たりの転送レートの高いRDRAMという選択になったわけだ。DDR SDRAMも、今でこそインターフェイスのビット幅を減らすという話が出ているが、IntelがRDRAMを選んだ時点ではそうではなかった。


●互換性の確保をIntelは重視

 IntelがRDRAMを選んだもうひとつの理由は、互換性の確保だ。複数ベンダーの製品で構成する必要があるPCでは、互換性の確保がもっとも重要だ。そして、周波数が向上するに連れて、互換性の確保はどんどん難しくなる。

 Intelは、66MHz SDRAMを導入した時、この点では無策に近かった。そのためにかなりのトラブルを招いたという苦い経験があった。メモリは半導体業界団体EIAの下部組織JEDECが決めた規格に沿って作られてきたが、その規格がゆるいために細かな仕様のばらつきがあったからだ。それで、PC-100 SDRAMでは、Intelはパソコンで利用するSDRAMのガイドラインを細かく定めた。そして、次世代メモリではそのアプローチをさらに押し進めようと考えた。その時、同じ方向性で互換性の確保を進めていたのがRambusだったというわけだ。

 Rambusは、RDRAMのインターフェイスなど設計をし、それを半導体メーカーにライセンスしてRDRAMやコントローラを製造してもらう。Rambusがユニークなのは、その際に、互換性を確保するためのソリューションも提供することだ。Rambusではインターフェイス回路だけでなく、パッケージ、ボードの設計、ソケットなどでも、細かなガイドラインや設計データ(ガーバー)などを出し、メモリをシステムとしてトータルに設計するソリューションを提供する。じつは、これがRDRAMに対する最大のトラブルと反発の原因になってしまうのだが、Intelはこのソリューションが欲しいと考えたらしい。

 こうした特徴を持つRDRAMは、おそらく、Willametteとそのチップセットの設計を詰めていたIntelにとって、最適な解であると映ったのだろう。IntelはRDRAMが次のメモリアーキテクチャになるという姿勢を崩していないのは、今もそう考えているからだ。誤算は、メモリメーカーの反発がここまで大きいことを予想していなかったことだ。

*RDRAMがWillametteのためという推測は、元麻布氏が「PC USER」誌で述べている


バックナンバー

('99年8月27日)

[Reported by 後藤 弘茂]


【PC Watchホームページ】


ウォッチ編集部内PC Watch担当pc-watch-info@impress.co.jp