ラムバス株式会社は、10月26日に大阪でラムバスデザインセミナ in 大阪を開催したが、これに先駆けて都内で記者発表会を開催し、セッションの一部の内容を先行して紹介した。また、これにあわせて講演者と1対1で細かくお話を伺う機会ももてたので、あわせて内容をご紹介したい(写真1)。
●記者発表会概略記者発表会ではまず同社DirectorのLinda Ashmore氏が簡単に直近の会社概要を説明した(写真2)。といっても、それほど新しい情報はなし。主要な出来事(写真3)と、照明関係の動向(写真4)が若干目新しい程度であった。
【写真1】左がRambus本社のLinda Ashmore氏(Director, Corporate Communications)、右が同じくSteven Woo博士(Technical Director) | 【写真2】今回はモバイルとグラフィックス向けがメイン、ということで後半のディスプレイ関連は大胆にパスしていた |
【写真3】8月のNVIDIAとの特許ライセンスについてはこちら。ただし「まだ一部についてのライセンス供与のみ」(Ashmore氏)ということで、今後更にライセンス契約が増える可能性もあるわけだ | 【写真4】福田氏のレポートには含まれて居なかったが、昨年12月にRambusはGLT(Global Lighting Technologies)から光関連の技術や特許を入手しており、これをベースとした導光板を前回のセミナーでも展示していたりしたのだが、早速これに関しても売り上げが立ったことになる | 【写真5】2007年に初めてWoo博士に会った時はTBI(Terabyte Initiative)のArchitectという肩書きであったが、最近はビジネス全般を掌握しているとのこと |
続いてはTechnical DirectorのSteven Woo博士(写真5)により、「次世代モバイルメモリ及びグラフィックスメモリの課題と対応」と題したセッションが行なわれた。実のところ、内容そのものは福田氏のレポートから大きな変化はない。ポイントを絞れば
・XDR2は最大16Gbps/pinの転送速度が実証できた。そこで、XDR2に関しては当面コンシューマ機器など従来XDR DRAMのカバー範囲だったマーケットではなく、GDDR5の置き換えを狙う
・Mobile XDRは積極的に携帯機器向けの採用を目指す
ということになり、これに沿った形での説明が行なわれた。基本的な考え方としては、性能・コスト・消費電力の3つの要求を全て満たすのが次第に難しくなっていく中で(写真6)、協調設計が必要になっていくべきというアプローチを示した(写真7)。
【写真6】まぁこれは一般的な話 | 【写真7】回路のみの設計とかシグナルインテグリティだけの設計といった形ではなく、全体をまとめて見ながら設計を進めていく必要があるという話 |
ここでの検討課題は、要するに従来型のメモリインターフェイスを使うとピンあたりの速度を向上させるのが難しくなってきている点(写真8)。困ったことに、単に信号伝達の設計のみならず、検証やデバッグの測定も難しくなりつつある(写真9)。だからといってスピードを落とすというのは性能改善のためには許されない(写真10)。
こうした問題に対する同社の解決策の1つがXDR2というわけだ(写真11)。XDR2そのものは当初はXDRの高速版という位置づけから、XDR+TDIの中で開発されたさまざまな技術を取り込んだものになっており、そのため信号レベルでの互換性がなくなった(全ての信号がディファレンシャルに変更された)代わりに、速度が最大16Gbpsに達している。この16Gbpsの通信速度でも安定してデータ転送が可能(写真12)というのがXDR2の大きな特徴であり、当初はグラフィックスなどのGDDR5の置き換え(というか後継)のポジションを狙っているようだ。
もう1つ紹介されたのがMobile XDRである。こちらはLPDDR2の後継、置き換えを狙ったものであり、概ね前回の内容と同じであるが(写真13)、今回はテストシリコンでの実際のデータなどが示された(写真14)点がちょっと異なる部分だ。エネルギー効率も遥かに良いことが示されている(写真15)のも前回との差である。
【写真13】今回は具体的にピン数の少なさやPoP(Package on Package)/MCP(Multi Chip Package)/C2C/Stackといった、携帯電話などの実装に使われるパッケージに対応していることをアピールした | 【写真14】こちらでは概略のみだが、今年(2010年)のDesignCon 2010ではもう少し詳細な情報が公開されている。こちらによればテストシリコンのコントローラはTSMCの40nm LPプロセスで製造され、C2CとPoPの両方のパッケージで良好なアイダイアグラムを記録している。DesignConでのプレゼンテーションでは、同様のパッケージをLPDDR2を使っても行ない、アイダイアグラムがずっと乱れていることも示された | 【写真15】SerDesというのはMIPI I/F(SPMTではないそうだ)を指しているとか。後でWoo博士に確認したところ、このグラフはI/Fとメモリチップそのものの両方をあわせての消費電力だそうである。要するにマルチメディア処理ではデータのやり取りが激しくなるため、この通信に要する消費電力がずっと大きくなる、ということだそうだ |
●Steven Woo博士インタビュー
以下Steven Woo博士とのインタビューである。ちなみにインタビューにはAshmore氏のほか、ラムバス戦略マーケティングマネージャの小屋義人氏も同席され、一部小屋氏の発言も含まれている。
Q:消費電力の上昇を抑えるために、優れたI/Oが必要という話がGPUのところででてきました。確かにGDDR1→GDDR3とか、GDDR3→GDDR5ではそうした話がありました。ただ今ではGPU自身の消費電力が以前に比べるとずっと大きくなっているわけで、I/Oの消費電力は相対的に大きな比重ではない気がします。
A:興味深い話だが、ご存知の通りGPUはコアロジックとコントロールI/OのPHY(物理層)から構成される。I/OのPHYは非常に小さい領域だが、消費電力はやや大きい。そもそもI/Oの消費電力はコアロジックほどにはプロセステクノロジーに比例(して減少)しない、という問題がある。ロジックのトランジスタは(プロセス微細化にあわせて)消費電力が減るが、I/Oのトランジスタの消費電力はそこまで下がらない。だから、今後プロセスを微細化していくと、I/O消費電力はどんどん問題になっていくと思う。今後GPUなどに求められる帯域がどんどん増えていく事を考えると、ローパワーI/Oの重要性は高いと思う。
Q:GPUに関して言えば、それはGDDRメモリの駆動電圧が高いのが主な理由だと思うんですが。
A:もちろんそれはそうなんだが、GDDRの電圧が高いのはクロストークやノイズなどさまざまな影響を受けにくくするためには高い電圧が必要という側面もある。例えば騒音だらけの部屋だと、大声で話をしないと伝わらないが、静かな部屋なら声をひそめても伝わるわけだ。だから、問題はSingle Ended Signalingなんだ。これを解決しない限り、I/O電圧は下げられない(し、消費電力も高いままになる)。我々はディファレンシャル信号だから、もっと信号電圧を下げることができる。
Q:Mobile XDRに関してですが、確かにMobile XDRは現時点では良い解の1つでしょう。ただ、モバイル向けはもっと消費電力が少ないので、ダイスタッキングが遥かに容易です。現在各社はこうした用途に向けてTSVを使ったスタッキングの研究をしており、2013年頃のタイムフレームでは、3D TSVを使って現在のLPDDR2や後継のLPDDR3が出て来る可能性があります。これらをどう考えますか? というのは、ご存知の通りJEDECは現在DDR4の標準化を行なっていますが、メモリ密度が上げ難いという問題があり、このためメモリチップベンダーやパッケージベンダーが3D TSVを使ってメモリ密度を上げる方向で現在開発を行なっており、これがそのまま利用できるから、ということなんですが。
A:その答えは、広く適用できる技術がどれだけ普及するか、に依存するだろう。これは未来のCPUとかメモリチップが、どれだけ広い範囲のプラットフォームをカバーするか、にも関係する。従来のパッケージのみならず、PoPやMCP、スタッキングなど、さまざまなパッケージに対応するとなると、当然それは価格に跳ね返らざるを得ない。もちろん、いくらかのアプリケーションは3D TSVを使う事になるだろうとは思う。問題は、こうした3D TSVを必要とするアプリケーションがどの位多く、そしてどの位広く利用されることになるのか、だ。もちろんそのタイムフレームになったら、我々もそうしたソリューションをサポートすることになると思う。要するに、その(3D TSVの)プラットフォームの開発費用を誰が負担し、どの方面のアプリケーションをターゲットとするか、だ。これはTSVのみならずダイ自身やプラットフォームの問題でもある。
もちろん、将来はそうした方向に行くとは思うが、それが厳密にいつになるかについては私はわからない。ちょうど昔、BGAパッケージが立ち上がったときの事を思い出す。多くのベンダーが信頼性に関する情報を出し、そしてパッケージングの実装に挑戦して、次第に普及していった。3D TSVはこれに近いものがある。現状ではまだ信頼性に関する情報をほとんど見ることがない。
これは個人的な意見だが、システムベンダーはまず3D TSVの信頼性に関する情報が十分に入手できるようになるまで、実装は控えるんじゃないかと思う。なので、実際に実装されるのは2012年よりもっと後になると思う。もちろん5~6年あれば(3D TSVの)技術は立ち上がるだろうとは思うが。
加えて言えば、まだ経済の状態はあまり良くないわけで、新しいインフラを立ち上げるための投資を行ないたいというベンダーはあまり無いと思う。こういう観点でMobile XDRは良い選択肢だと思う。既存のインフラをそのまま利用できるからだ。これはDDR4についても言える。ご存知の通りDDR4が遅延したために、より高速なDDR3が登場する。これは既存のインフラをそのまま利用できるものだ。これはモバイルにおいても同じことが言えると思う。
Q:例えばAppleのiPhoneのプロセッサはSamsungで製造されるわけですが、Samsungはプロセッサのみならずメモリコントローラやペリフェラルで良いIPを取り揃えており、なのでAppleは別に自分でメモリコントローラを設計したわけではなく単にSamsungが提供するメモリコントローラを選択しただけです。これと同じようにMobile XDRが広く利用されるためには、単にRambusがMobile XDRのソフトIPを提供するだけではなく、ファウンダリがMobile XDRの物理IPを提供できるような体制が必要ではないんでしょうか? 特に今後、プロセスが微細化されるとこれが非常に重要な気がします。例えばARMはGLOBALFOUNDRIESほかのFabと共同で、28nm以下向けの物理IPを提供します。28nmとか22nmでは開発の初期コストが膨大なので、どうしても物理IPの要望は高いわけです。同時にこうしたファウンダリはまた、標準IPとしてLPDDR2の物理IPも揃えているわけで、これを利用するのは安価かつ確実な方法です。ところがMobile XDRの場合はRambusからソフトIPを購入し、これのインプリメントを顧客自身が行なわないといけませんよね?
A:確かに言われるとおりだ。開発に要するコストは高くなる一方だ。必要となる知識も、28nmとかそれ以下ではどんどん多くなるため、より高くつくことになる。もちろんそうした事は理解しており、我々は業界にMobile XDRを利用してもらうための方策として検証済みの物理IPやソフトIPを提供することを計画している。
Q:モバイル向け、ということではSPMTも同じマーケットを狙っているわけですが、彼らのソリューションをどう思われますか?
A:実際、より少ないピン数、より高いデータレートという観点では同じ方向性ではあるが、トータルソリューションとしてはMobile XDRの方がより優れたソリューションだと思う。もちろんアイディアのスタートは一緒であるが、我々はこうしたメモリ I/Fに関して十分な知識と経験を過去20年に渡って蓄積してきた。Mobile XDRは非対称システムなので、DRAM側は単にDRAMであり、必要な回路はコントローラ側に集積されている(注:SPMTはシリアルモードとパラレルモードがあり、パラレルモードの動作はほぼLPDDR2と一緒だが、シリアルモードでは独自の転送方式となるため、DRAM側もこれに対応する必要がある)。マザーボード側の対応も簡単だしテストシステムもあり、オンチップの測定回路なども用意されている。ほかにもシグナルインテグリティへの対応など、さまざまなソリューションがMobile XDRでは既に確立している。なぜ私がMobile XDRが優れていると思うか、といえば他のソリューションは同じフィロソフィーを持つアプローチであっても、我々の20年の経験に基づく知識に相当するものはないからだ。これがMobile XDRを正しいソリューションにしていると考える。
加えて言えば、Mobile XDRはまた低レイテンシと小ピン数を両立できるI/Fでもある。
Q:ちょっとモバイルから外れますがアプリケーションによっては、例えばGPUのようなものではレイテンシはあまり問題にならず、むしろバス幅が問題だったりしますよね。
A:純粋なグラフィックに関してはその通りだ。ただ最近はCPUとGPUが連携して処理を行なうようなケースは話が異なる。グラフィックの場合は、メモリはフレームバッファとして使われるわけで、こうしたケースではバンド幅が問題になる。ところが、例えばIntelのLarrabee、あるいはAMDのFusionのように異なるアーキテクチャの場合は、レイテンシもまた問題になる。だから、バンド幅とレイテンシの両方とも重要な要素だといえる。10年前にIntelは、高バンド幅の環境でレイテンシを遮蔽するコンセプトを提唱し(注:つまりマルチスレッド動作によりレイテンシを遮蔽すること)、これが広く使われてきたが、GPGPUでは話がまた変わってくると思う。
それにレイテンシはそのまま、チップ内のバッファサイズ(をどれだけ用意するか)とか、パイプラインの深さはどうかとか、などさまざまな要素に関係してくる。だから「もしレイテンシはどうする? 」と聞けば「可能な限り少なくしてくれ」という返事が返ってくる。それでもGPUのマーケットは現在のところレイテンシよりもバンド幅が重視されるマーケットであるが、今後GPGPUが普及してくるにつれ、次第にレイテンシの重要度が増してくると思う。
Q:ついでですのでGPUに話を戻します。現世代GPUのGDDR5はメモリバスが256bitの構成ですが、一部NVIDIAの製品はメモリバスが384bit構成があります。多分、技術的には512bitも不可能ではないでしょう。そこでお聞きしますが、どの世代でGDDRでは追いつかなくなり、XDRなりXDR2が必要になると思われますか?
A:技術的に言えば、現在のGPUは非常に大きなダイサイズで大量のピンを用意している。XDR2を使えば、同じ帯域でピン数を大幅に減らす事が可能だ。だから、ダイサイズを縮小しても、I/O帯域を犠牲にする必要がない。もちろん巨大なチップならXDRは要らないかもしれない。でもプロセスの微細化に伴ってチップサイズも小型化するならば、そのときにXDRは効果的なソリューションになる。
Q:それはそうなんですが、今のところダイサイズは専らシェーダの数で決まっているわけで、I/Oピンがこれに及ぼす影響はそう多くないと思うんですが。
A:これは、コストとパフォーマンスのバランスの問題だと思う。例えばもし同じ帯域がより少ないピンと消費電力で実現できるなら、その分プロセッサコア(注:この場合シェーダ)を増やす。だから問題は消費電力とコストの問題になる。少ないピン数は小さいパッケージを可能にし、低い消費電力はオンボードの電圧レギュレータや放熱機構のコスト低減につながる。だから問題は、より高い性能とGDDRへの後方互換性のどちらが重要かということになる。興味深いのは、GPUはこれまでも複数のメモリ技術をサポートしてきたことだ。我々はXDR2はGPUには最適のソリューションだと思っている。
Q:例えばこれ(写真10)、多分Radeonの3000シリーズか何かだと思うんですが、このダイの大半はシェーダなわけで、GDDR3なりGDDR5をXDR2に変えたからと言ってトランジスタが大きく減るわけではないですよね? それと、ここにはGDDRチップが8つあるわけですが、このチップのパッケージ自身はXDR2になっても大差ないと思うんですが。
A:ピン数で言えば、GDDR5は170ピン、対するXDR2は150ピンになる。ただしピンあたりの帯域は倍以上だ。だから、より高い性能がほしい場合でもXDR2なら対応できるが、シングルエンドのGDDR5では無理だ。それに配線が非常に大変だ。
Q:GPUまわりでもう1つ、PCBに関して。最近のハイエンドGPUの場合、PCBの層数がかなりのレベルに達しています。確か2005年頃はNVIDIAが12層、ATIが14層とか言っていたのですが、それよりも増えているはずです。ただ2005年の12なり14層は非常に高価で製造も難しかったのですが、今日ではそれほどではありません。
この構図はPCマーケットに似ています。1999年に最初にDirect RDRAMがデビューしたとき、大半のマザーボードベンダーはこれを4層PCBで製造しきれず、6層PCBが利用されました。その後、2000年あたりには技術力のあるベンダーは何とか4層で製造できるようになりました。で、現在はというとほぼ全てのベンダーが安価な4層PCBで1GHzを越える信号を普通に扱えるようになりました。これは技術が普及し、全体のレベルが上がってきたからです。
ビデオカードも同じことが言えると思うのですが、2005年とかには256bit幅のシグナリングは非常に困難でしたが、現在はそうでもありません。となると、XDR2を使わなくてもGDDRベースで安価なシステムが作れると思うのですが。
A:議論はよく理解できる。確かに以前に比べるとPCBの層数はそれほど価格に大きな影響を及ぼさなくなった。我々のXDR2は4層で16Gbpsが可能だが、それは価格面で大きなアドバンテージにはなりにくい。問題はむしろ電源の供給や性能のスケーリングになりつつある。ただGDDRを使う限りPCBの層数は増える一方であり、もし層数を減らしたければXDR2は良いソリューションになる。
Q:つまり問題は、高価なPCB+低価格なGDDRか、低コストのPCB+高価格のXDR2か、ということになるわけですね。
A:最終的にはトータルコストの問題になる。ただしそれはどれだけのボリュームが出るのかという問題でもある。大量に出荷されればコストは下がることになる。
Q:次はまさにその質問です。DDR3は現在DDR2に比べての価格プレミアムが完全になくなり、今後数年間はどんどん価格が下がる一方でしょう。GDDR5もそうで、現在価格プレミアムはなくなっています。ところがXDRはというと、今のところ汎用向けとして量産しているのはエルピーダのみです。もちろんほかにSamsungなどがライセンスを受け、特定顧客向けには生産していますが、彼らに話を聞くと「顧客がそれを希望すれば生産するよ」、逆に言えば顧客が希望しない限り、汎用品としての量産には入らないわけで、そうなると価格は高止まりします。これは典型的な「鶏と卵」状態なわけで、これをどうやって打ち破るおつもりでしょう。
A:まさしくその通りである。我々はアプリケーションに適した「正しい」ソリューションを投入することでこれを打破したいと思っている。現在我々のスタッフは、XDR2の能力がまさに必要とされるアプリケーションにフォーカスして対応を行なっている。多分来年にはこの方面でもう少し語ることができるだろう。ただそれだけでなく、システムのほかの点での要望にも応えることが必要になる。我々のアーリーアダプターに対しては、技術的な要望にも応える形で対応を行なってきた。今後はこうしたアーリーアダプターがより大量出荷できるような手助けをすることでボリュームを確保していきたい。
Q:確か2007年だったか2008年だったか、TIはDLPのコントローラにXDRを採用し、東芝もSTB SolutionにXDRを採用したと記憶していますが、ほかにコンシューマ向けで採用事例はあるのでしょうか?
A:多くの顧客に興味を持ってもらってはいる。XDR2はハイパフォーマンスが必要な、グラフィックやゲームコンソールが最初の例になるとおもっている。XDRはすでに、非常に出荷量の大きいマーケットに入りつつある。ただ我々は、「どんなデザインがXDRやXDR2に最適か」を常に考えている。可能性は非常に広い。もちろん4層PCBのマザーボードにも最適だが。
Q:ところでちょっと違う話を。RambusはXDR/XDR2以外に標準のDDR/DDR2/DDR3 I/FのIPも提供しています。で、DDR3 I/FにはFlexPhaseの技術が入っているという話は前にお聞きしました。ではその他の機能、例えば先ほどでてきたオンチップ測定機能なども入れることが出来るのでしょうか?
A:オンチップ測定などの機能は全ての製品に組み合わせることが可能だ。だから我々のDDR3 PHYは実際オンチップ測定機能を持っているし、FlexPhaseやその他の機能も搭載されている。こうしたものはいずれもXDRの開発で生み出されたものだ。
先に、DDR4が延びたのでDDR3の高速化が図られたという話があった。今回我々はワイヤーボンドで利用できる、1,866MHzまで利用可能なDDR3 PHYを発表した。そして2,133MHz動作時もアイダイアグラムは良好だ。これらのPHYはいずれもオンチップ測定機能とFlexPhaseを搭載している。
Q:そのDDR3 PHYですが、今は1.5Vです。ただ今後は1.35Vあるいは1.25V動作が標準化される見込みですが、こうした将来規格への対応はいかがでしょう。
A:我々は業界標準を常にサポートしていくし、煩雑に情報を収集している。こうしたビジネスも活発に行なっており、過去にはHDTVマーケットで、例えば昨年の場合だとHDTVマーケット向けの20%には我々のPHYが採用された。
Q:DDR4はいかがです? 恐らく2015年とかそれ以降になると思いますが。
A:それは顧客が要望するかどうかに掛かっている。
Q:オンチップ測定機能でもう1つ。これ単体をIPとして販売される予定は?
A:可能だ。それぞれは独立したIPブロックとして構成されており、実際に顧客のデザインにこれを組み込むことができる。
Q:XDR2についてもう1つ。例えばATIでもNVIDIAでもいいんですが、彼らがもしGDDR5の代わりにXDR2を使おうと考えたとします。ところが彼らのアーキテクチャは現在GDDR3/5をベースに設計されていますから、メモリアクセスの最適化技法がXDR2の場合と全く異なってくると思うのですが。
A:実際にはそこまで変わったりはしないと思う。DRAMテクノロジは広く利用されているものであり、そうしたインフラまで変えてしまうものではない。DRAMコアそのものは殆ど同じであり、オペレーションもほぼ同じだ。だから例えば1.6Gbpsで動くGDDR3を3.2GbpsのXDRに置き換えるのはそれほど難しくは無い。GDDR3の3.2GbpsとXDRの3.2Gbpsはほぼ同じパフォーマンスだ。
Q:昔Direct RDRAMとSDRAMのシステムを比較したとき、理論上はDirect RDRAMの方が高速なのに通常使われるベンチマークではSDRAMの方が高速、という事があったわけですが。
A:それはIntel 820の話でしょう。メモリバンド幅それ自身は十分にあった。問題は、システムそれ自身がそのバンド幅を使いきれるかどうかだと思う。例えばその後に出てきたPentium 4はDirect RDRAMのパフォーマンスを使いきれるように設計されていた。だから、SDRAMのシステムに比べるとずっと性能が良かった。要するにそもそも設計時点でそうしたバンド幅に対応するアーキテクチャになっているかどうかが問題だ。例えば車を買うとする。フェラーリを買えば時速240kmで走らせることは難しくない。でも、もし市街地の制限速度が時速30kmだったら、フェラーリがあってもどうしようもない。だったらトヨタを買ったほうがいい。同じ事はメモリやシステムにもいえる。
またPentium IIIのアーキテクチャではパラレリズムがPentium 4に比べるとずっと少ないから、レイテンシの影響を受けやすい。Intelもここで随分改良が行なわれた。
加えて言えば、Direct RDRAMの後で我々も色々学習した。例えば我々はXDRでプロトコルオーバーヘッドを大分削減した。またレイテンシも性能に影響を与えるが、XDRではこの影響もなくなっている。だからGDDR3とXDRの仕様を見比べていただければ判るが、コアパラメータは非常に近いものになっている。
Q:例えば今のGPUはGDDRをベースにしているわけで、その意味では古いPentium IIIの世代と同じことにならないか心配です。
A:ただ考えてみてくれ。GDDR5メモリが必要とされ、5Gbpsで転送が行なわれ、もっと高速な帯域が必要とされているわけで、そうした広いバンド幅を使いきれるアーキテクチャであることは明らかだと思う。もちろんそこで10Gbpsが使いきれるのかどうかは検証の必要はあるだろうが。そこで使い切れない、ということであればもう一度最初から設計し直しの必要はあるかもしれないが。
Q:それは例えばXDR2を使おうと思ったとき、少なくともメモリシステムはスクラッチから作り直したほうが良い、ということですか?
A:いやいや、実際にはRambusは現在利用中のメモリコントローラに可能な限り適応できるような形でXDR2を組み込む手伝いができると思う。もちろん、16Gbpsをフルに使いたい、となった場合にはパイプラインにいくらかの修正は必要になると思うが。だから、設計の定義段階から入れれば、より効果的に利用が出来るということになる。
Q:ところでTDIは最終的にXDR2という形になったわけですが、XDR2ベースで1TB/secを実現するのはピン数が大変な事になる気もするのですが。
A:例えばGDDR5と比較した場合、ディファレンシャル信号を使っているために、必要とする消費電力がずっと減るので、電源とグランドピンの数をずっと減らせる。もちろんデータ以外の全てのピンもディファレンシャルになっている分ピン数は増えるが、トータルではずっとピンの数が多くなる。
それに今のところテクノロジロードマップでは16Gbpsという数字を出しているが、ただそれ以上に引き上げられる可能性もあるし、そうしたものを目指している。
Q:最後の質問です。XDR2の先はどうなるんでしょ? 言い換えれば、銅配線ベースでどこまで行けるんでしょう?
A:多くの人が、シリコンフォトニクスについて色々興味があるようだ。オプティカルと言い換えても良いが、これは長距離に関しては良いアイディアだ。現在でもシャーシ間の通信には光学ケーブルが使われている。問題はPCB上がいつ光配線になるかだ。
私自身はRambusがこれについてどう考えているか厳密には知らないが、ただ我々は銅配線にまだ活躍の場があると思っておる。広く使われているインフラであり、今も研究されている。ISSCCの論文を読むと25Gや30G/40G/50Gといった数字が踊っており、既存の銅配線インフラを少々変更することでまだ上の性能を狙えると思う。フォトニクスは全く異なるものだ。個人的には、銅配線はまだ当分の間現役だろうと思う。もちろんRambus自身はその先も見据えており、こちらの研究も行なっているが、銅配線の限界を引き上げる研究も行なっている。別の言い方をすれば、銅配線上のデータレートは現在よりももっと高くすることができると私は考えている。というのは銅配線の利用やメンテナンスのコストと比較して、フォトニクスのそれは非常に高くなるからだ。確かにIntelのシリコンフォトニクスは非常に素晴らしい仕事だと思う。ただ今のところ銅配線の方が遥かに安価に製造できる。シリコンフォトニクスは今後さまざまな信頼性、例えば温度変化によるスペクトルのシフトといった事に関するデータを収集していかなければならない。もちろん製造に関しても問題は多いだろう。シリコンフォトニクスは非常によい仕事だと思うが、広く使われるためにはまだ結構な年数がかかると思う。
この前のIDFのショーケースで、シリコンフォトニクスのブースで少し議論をしたのだが、今後量産に持ち込むためには量産にまつわる諸問題の解決や信頼性の確保、メカニズムの完全な理解といった難題がまだまだ控えている。非常に興味深い技術ではあるが、実用になるにはまだ時間が掛かるだろう。
●ということで本文からは意図的に外したのだが、既にXDRを使ったDTV向けチップセットが国内でも結構普及し始めている(ただしOEMからの要請もあって、具体的な社名とか製品名は出せないとのこと。意外にメジャーな製品名が出てきて、ちょっと驚いた)という話も聞けるなど、着々と製品への応用は進んでいる。しかしながら今のところはエルピーダの単独生産で、十分な数量しか出ていないのが現状であり、もう少し数量が出てくれないとコスト面でのデメリットを消しきれないことになる。
以前同社の幹部と話をした時には、「DDR2×2とXDR×1だったらXDRの方がBOM(Bill of Material:部品単価)を下げられる」という話をしていたが、現在ではDDR3×2とXDR×1という勝負になってしまい、帯域で同等、実装面積はDDR3がやや大きいかもしれないがBOMではDDR3が圧勝という感じになっており、ちょっと苦しい感じになっているのは間違いない。したがって、インタビューにもでてきた通り、もう少し大量にXDRを採用してくれるアプリケーションが無いと難しいところだろう。
もっと苦しいのはXDR2である。たびたびゲームコンソールの話が出てきたが、果たしてこれまでの延長で次世代のゲームコンソールというものが出てくるのか、というレベルの議論になっている状況であり、果たしてPS3までのように採用されるかはちょっと疑問が残るところ。むしろまだGPUの方が可能性はあると思うが(実際GDDR5の次、についてはまだ具体的な方向性が固まっていない。ただこれ以上はもうシングルエンドは難しいだろう、というのはほぼ共通認識になっているようだ)、短期的にはXDR2に移ろうという動きはなさそうである。当面はAMD/NVIDIAともに28nmプロセスへの移行が焦点だから、可能性があるとすると早くてその次、28nmプロセスを使う第2世代以降であり、そうなると2012年~2013年あたりになるだろう。
XDR2はまだチップすらない(現在のテストベッドはSiliconでDRAMのエミュレーションをしているデバイス相手に転送を行なっている)から、実際にDRAMをこれで製造するとなると、今すぐ始めても1年やそこらは軽く掛かる(実際には2012年でも間に合うか怪しいところだ)だろうから、2013年あたりがターゲットであり、今はこれに向けて種を撒いている状態といってもいいだろう。
そうなるとやはり当面はXDRとMobile XDRの普及に専念するというのが同社のスタンスなのだろう。実際冒頭に示した記者発表会のスライドはこれに沿ったものだったし、Woo博士のインタビューも、いかにXDRやMobile XDRがStableで技術的に優れているか、というあたりに終始しているのも判ろうというものだ。
ちなみにライセンス収入などで同社の財務状況はここのところ非常に快調である。ただ快調であるうちに、次の収入の柱であるXDR/Mobile XDRのポジションを確立させたい、という同社の想いが伝わってくる感じをインタビューを通して強く受けた、というのが筆者の感想である。
(2010年 11月 9日)
[Reported by 大原 雄介]