後藤弘茂のWeekly海外ニュース

GPUのメモリ帯域を1TB/secに引き上げるHBMが準備完了へ

SK Hynixに続いてSamsungも生産準備ができたと説明

 次世代の広帯域メモリHBM(High Bandwidth Memory)が離陸しようとしている。HBMはすでにSK Hynixが製品化を進めており、来年(2015年)第1四半期から量産出荷を始める。Samsungも、SK Hynixに続いてHBMの製造準備を進めていることを明らかにしている。

 スタック型の新メモリ規格にはHBMとHMC(Hybrid Memory Cube)があるが、SamsungはHBMを提案するとJS Choi氏(Samsung Semiconductor)はメモリ関連カンファレンス「MemCon 2014」で語った。HBMの方が市場の適用範囲がより広いからだという。HBMはグラフィックスから始まるが、ネットワークやHPC(High Performance Computing)など、より多くのメモリアプリケーションが期待できるとSamsungは見る。HMCはHPCに採用されつつあるが、市場性はHBMより狭いという分析だと見られる。

 グラフィックス市場でのHBMの大きな利点は、頭打ちになりつつあるGDDR5よりも広いメモリ帯域と低い消費電力だ。しかし、グラフィックスだけではなく、ネットワーク機器もHBMの有望な市場だとSamsungは説明する。

HBMはネットワーク機器もターゲットにする
HBMの概要

 データセンターのネットワークアプリケーションでは現在10Gigabit Ethernetが最もポピュラーだが、バックサイドではより高速な100Gbitからさらに高速な200Gbitや400Gbbitが浸透する見込みだという。そのため、ルックアップやパケットのためのバッファとしてより高性能なメモリが必要とされている。現状では、ネットワーク機器では、カスタムメモリ(RLDRAMなど)を使うか、既存のメモリを多くのチャネルで使っており、システムのコストが高く付いている。HBMはこの問題を解決できるとSamsungのChoi氏は言う。

 一方、HPC(High Performance Computing)市場でも、HBMは有望だとSamsungのChoi氏は語る。「テラスケールHPCの世界で最も重要な事項は消費電力を減らすことだから」で、帯域当たりの電力を大幅に削減できるHBMが利点があるとする。また、実装面積が狭いこともHBMの利点で、複数のスタックを使うことで、小さな面積に4TBのメモリを実装できると説明した。HPCでのHBMの難点であるECCの問題も、JEDEC(半導体の標準化団体)でECCが規格に加えられたことで解決したという。

メモリバス幅のロードマップ
PDF版はこちら
帯域当たりの電力を40%も減らすことができる点がHBMの魅力

熱伝導のためのダミーバンプも配置

 HBMについて残る問題は、発熱やコスト、製造工程やエコシステムなどだ。

 HBMはDRAMのダイを最大8個積層したスタックにするため、表面積の小さなスタックの熱が問題になりやすい。問題はDRAMが熱に弱いこと。温度が上がるとリーク電流(Leakage)が増えて、DRAMのメモリセルからのリークが増大する。すると、DRAMのメモリ内容を保持するために、リフレッシュの回数を増やさなければならなくなる。しかし、リフレッシュがさらに熱を上げてしまう。

 「DRAMにとっては85℃までの温度に留めることが望ましい。95℃と、やや高温でリーク電流が増えてリフレッシュモードの最適化が必要になる。105℃になると、非常に高温で(頻繁な)リフレッシングが必要となる。そのため、ダイ温度を下げるための効果的なクーリングソリューションが必要となる」とAMDのJoe Macri氏(CVP and Product CTO)は説明する。

 SamsungはMemconで、2.5DソリューションのHBMの温度測定結果の概要を示した。その上で、効果的なサーマルソリューション技術の全てをHBMに投入した結果、4スタックでは全てのダイが良好な温度に収まることが検証できたと説明した。Samsungによると、HBMでは熱はもはや問題ではないという。

Samsungによる2.5DソリューションでのHBMのサーマルテストの結果

 HBMでのサーマル管理技術の一部に関しては、SK Hynixが今年(2014年)8月のHot Chipsで説明している。DRAMのシリコン自体は熱伝導性がよく、TSVとマイクロバンプも熱伝導性がいい。しかし、HBMのDRAMスタックはTSV以外の部分では完全にダイ同士が密着しているわけではなく、そのためダイ間の熱伝導の効率は低い。結果として、通常、HBMのようなTSVによるスタックを作ると最下層のロジックダイの温度が非常に高くなり、その上のDRAMダイの温度も危険域の95℃以上に上がってしまう。

ダミーバンプによって熱伝導を高めて廃熱効率を上げる

 そこで、SK Hynixではダイ間に熱伝導用のダミーバンプを配置したという。信号伝達は行なわない、熱伝導のためだけのバンプだ。このダミーバンプによって、ダイ間の熱伝導が劇的に改善され、廃熱が良好に行なわれるようになったという。また、ダミーバンプなのでメカニカルな信頼性の問題も発生しないという。

シングルバンクリフレッシュをサポート

 ちなみに、リフレッシュについては、HBMは温度によってリフレッシュレートを変化させる「Temperature Compensated Self Refresh」をサポートしている。上の段でMacri氏が触れているのがその機能だ。

 また、GDDR5と異なり、HBMではリフレッシュ動作もバンク単位で個別に行なう「Single-Bank Refresh」をサポートする。旧来のPC向けDRAMは、DRAMチップ全体でリフレッシュ動作を行なう仕様になっていた。リフレッシュ動作中は、データアクセスができないため、メモリの実効帯域が食われていた。それに対して、HBMは個々のバンク単位でリフレッシュを行なうことができる。

DRAMの効率を上げるシングルバンクリフレッシュ

 HBMは1スタックで8チャネルの構成で、1チャネル当たり8または16バンク。1つのバンクをリフレッシュしている間、他のバンクへのコマンド発行と動作を並列させることができる。そのため、帯域と遅延が改善される。

インタポーザコストは量産効果での低減を期待

 HBMのコストについては、依然として問題が残っている。現在のHBM製品は、DRAMダイのスタックにロジックインターフェイスダイ、そしてシリコンインタポーザを使っている。単純なダイコストだけでも、ロジックダイとシリコンインタポーザのコストがDRAMのコストに加わる。

 HBMはThrough Silicon Via(TSV)技術によるダイスタッキング技術を使うが、TSVスタックにはCPUやGPUに直接DRAMダイを積層する「3D」と、シリコンインバポーザ上にCPUやGPUとDRAMスタックを並べて接続する方法「2.5D」の2つの方法がある。3Dスタッキングでは、GPU/CPU/SoCのロジックチップ側にもTSVでホールを空ける必要がある。それに対して、2.5Dなら、ロジックチップ側にはTSVの穴を開けなくて済むため、CPUやGPUのメーカーが適用しやすい。

2.5Dと3Dのソリューションの違い
PDF版はこちら

 シリコンインタポーザは、上の図のようにTSVによるViaが開けられ配線されたシリコンチップだ。インタポーザ上に、CPUやGPUなどのロジックチップとDRAMチップを載せる。どちらも、インタポーザとはマイクロバンプで接続する。DRAMをスタックする場合はTSVでスタックする。インタポーザ自体は通常のバンプでPCBに接続する。

HBMの2.5Dソリューション

 HBMが2.5Dに注力する理由は2つある。1つは排熱の問題で、電力消費の大きい高性能GPU/CPU/SoCの熱を、熱に弱いDRAMを通して排熱することが難しい点。もう1つは、先端プロセス技術でTSVを利用可能にするには時間とコストが掛かることだ。AMDのJoe Macri氏(CVP and Product CTO)は次のように説明する。

 「HBM DRAM自体にはインタポーザでなければならないという制約はない。HBMでは、インタポーザと3Dスタックのどちらのソリューションも可能だ。どちらにもトレードオフがある。3Dでは高性能なロジックダイにThrough Silicon Via (TSV)を使うコストがかかる、2.5Dではパッシブまたはセミパッシブのインタポーザを使うコストがかかる。そのトレードオフだ。

 インタポーザのコストについては、生産ボリュームが増大するにつれてコストが下がって行くだろう。長期的にはイタポーザのコストの問題は解決すると考えている。ただし、短期的には、インタポーザによって上がるコストを、より高い性能で正当化しなければならない。

 また、FinFETのような複雑なプロセスでは、Through Silicon Via(TSV)のホールを空けることがより難しくなる。シリコンに対する圧迫のプロセスについても制御が必要となる。コストトレードオフはケース毎に異なり、インタポーザの方がコストが低い場合も、3Dスタックの方がコストが低い場合もある。だから両方のオプションを使えるようにすることが重要だ」。

 製造ボリュームが増すとともにTSVインタポーザのコストも下がるという見通しは、SamsungやSK Hynixも述べている。

 「業界全体でHBMのコスト低減については多くの話合いを行なった。シリコンインタポーザではなく、他の材料を使ったインタポーザ基板についても検討した。HBMが市場に出る来年(2015年)には、コストもアセンブリも他の技術的な課題も、全てが解決するだろう」(Samsung Choi氏)。

 Samsungが触れているシリコン以外のインタポーザについては、SK Hynixもオーガニック材料で作ることも理論的には可能だが制約があるとMemconで説明していた。AMDのMacri氏も次のように説明する。

 「オーガニック素材の基板をインタポーザに使うことができるようになる可能性はある。ただし、それは信号密度を減らすことができればだ。今日のHBM規格は、オーガニック基板にとっては稠密過ぎてピッチも微細過ぎる。それが、HBMでシリコンインタポーザを使わなければならない理由だ。

 しかし、ハイブリッド設計のような方法を見つけることができるかもしれない。HBMのデータ幅(インターフェイス)を維持するのではなく、ハーフ幅あるいは4分の1幅、9分の1幅の(インターフェイス)に低減する。そうすれば、HBMもオーガニック基板でできる。この件も、エンジニアリングコミュニティで議論しているオプションの1つだ」。

KGSD(Known Good Stacked Die)として出荷されるHBM

 残るHBMの懸念材料はアセンブリだ。SK HynixとSamsungともHBMを基本はスタックでパッケージ化した製品として供給する方針だ。顧客側にすれば、従来のDRAMチップパッケージと同様にHBMのスタックをパッケージとして購入して実装することになる。2.5DのTSVインタポーザは、DRAMベンダー側ではなく顧客側が用意する。

SK HynixのKGSDソリューション

 SK Hynixは、このモジュールを「5mKGSD(molded Known Good Stacked Die)」と呼んでいる。良品であることが保証されているダイを「Known Good Die(KGD)」と呼ぶが、SK HynixはHBMではそれを拡張してスタックされた状態で良品であることを保証する。ダイを積層する場合はKGDが非常に重要となる。それは、複数のダイのうち1個でも不良品があると使えないため、歩留まりが大幅に低下するからだ。HBMではスタック状態でKGSDとして保証することで、DRAMベンダーはKGD問題の解決を図る。

 Samsungは、同様にHBMをパッケージ化して提供する。同社の300mmウェハ製造ラインで、HBMの生産の準備は整ったと説明。HBM製品が近い将来登場すると発表した。

SamsungはHBMの製造態勢が整ったと説明

HBMとHMCに分かれたDRAM業界

 これによって、高性能のスタックDRAMは、MicronがHMC、SK HynixとSamsungがHBMと分かれたことになる。もちろん、SamsungなどがHMCを製造する可能性はまだ残されているが、3強が2規格に分かれた格好だ。AMDのJoe Macri氏(CVP and Product CTO)はHBMとHMCについて次のように説明する。

 「HBMとHMCは、本質的にターゲットが異なるメモリ技術だ。HMCは(メモリコントローラから)遠距離に配置することに最適化している。それに対して、HBMは(メモリコントローラから)近距離に配置することに最適化した。(メモリとの配置が)遠距離になれば、電力のペナルティは払わなければならない。

 HMCの場合は、DRAMスタックの内部は非常に幅広いデータパスだ。しかし、外側(DRAMスタックとコントローラの間)は狭いデータパスで結んでいる。データパスを狭くすると、データ転送レートと周波数を上げなければならない。そのため、HMCは、SerDesのようなより複雑なトランスミッション技術を必要とする。SerDesはフィードバックループで、そのために電力消費が上がる。HMCの方がHBMよりも電力を消費し熱を上げることは疑いがない。ボトムロジックダイが複雑で、より高い周波数で動作させなければならないからだ。

 しかし、HMCの目的を考えると、HMCの熱も、システム構成上はOKだ。CPUから離れてメモリを配置することは、DRAMの冷却を助けるからだ。そして、HMCのようなアーキテクチャが重要なケースもある。HMCでは有利だが、HBMでは利点がないシステムを推測することは容易にできる。HMCも理に適った技術だと思う。

 だからと言ってそれだけの理由で、JEDECがHBMに、よりHMCライクなバリエーションを考慮するわけではない。実際には、JEDECの中でも、HMCライクなHBMのバリエーションについて討議したことはある。しかし、そこにはシステムトレードオフがあり、簡単ではない。JEDECは純粋にユーザーのニーズの大きさに応えてメモリを規格化するため、そうした選択肢は採らなかった」。

(後藤 弘茂 (Hiroshige Goto)E-mail