後藤弘茂のWeekly海外ニュース

8G-bit品の投入で大容量化を図るHBMロードマップ

HBMのメモリ容量

 SK hynixは、他社に先駆けて次世代広帯域DRAM「HBM(High Bandwidth Memory)」を市場に投入しようとしている。SK hynixはHBM製品を、まず2G-bitチップで立ち上げ、第2世代として8G-bitチップを投入する計画を明らかにしている。なぜ2G-bitと8G-bitの2製品系列で、中間の4G-bit品が欠けているのか。それは、最初の市場でのHBMのメモリ容量ニーズが2極化しているからだ。

HBMのスタックドDRAMアーキテクチャ
HBMのアーキテクチャ
PDF版はこちら
HBMのサンプル

 メモリバインドアプリケーションが多いためにHBMを切望しているHPC(High Performance Computing)では、メモリ量はできる限り多く欲しい。一方、グラフィックス製品ではメモリ量は一定以上あればOKで、コストの方が重要なのでメモリ量は抑えたい。ネットワーク機器などへの組み込みも同様だ。そうした市場のニーズの違いがあるため、HBMの製品の方も小容量と大容量の2方向へと分かれる。

 HBMはメモリモジュール化ができない。そのため、HBMのメモリ容量は決め打ちとなり増設はできない。HBMシステムのメモリ容量は「チップ当たりメモリ容量×スタック層数×スタックの数」となる。このうち、スタック層数とスタック自体の数はメモリ帯域と連動する。

 HBMのメモリスタックは、基本は4個のDRAMを積層する。現在のSK hynixの仕様では、4スタック以上でなければ最大帯域は得られない。SK hynixでは8-HiスタックのHBMも計画している。こちらは2ランク(1チャネルに2ダイ)となる予定だ。つまり、HBM DRAMのダイ自体は同じで、それぞれのHBMメモリチャネルに2つのDRAMダイが接続される。

 こうしたアーキテクチャのため、HBMのチップ当たりのメモリ容量によって自ずとシステムメモリ量が決まってくる。スタック当たりのメモリ量は2G-bit HBMの場合に4-Hi(4層)で1GB、8-Hi(8層)で2GBとなる。4個のスタックを使うGPUならそれぞれ4GBと8GBとなる。一般的にはコストの低い4層が予想されるため4GBあたりが標準となりそうだ。組み込み用途で使われるケースがあるなら、例えば1スタックなら1GBとなる。一方、8G-bit HBMの場合はスタック当たりのメモリ量は4-Hi(4層)で4GB、8-Hi(8層)で8GBとなる。4スタックを使うGPUを仮定すると、それぞれ32GBと64GBのメモリ量となる。サーバーCPUクラスのメモリ量となる。

HBMの容量
PDF版はこちら
HBMの大容量化

29nmプロセスで製造をスタートするSK hynixのHBM

 SK hynixは29nmプロセスでHBMの製造をスタートしている。29nmプロセスは半導体業界では“2x nm(27~29nm)”と呼ばれる世代で、SK hynixは2016年から製造をスタートする8G-bitから“2z nm”プロセスへと移行する。2zは20nm台の前半(20~24nm)のプロセスだ。

HBMのダイ
TSVのロードマップ
第1世代のHBM

 現在の29nmプロセスの2G-bit HBMのダイサイズは5.10×6.91mmで面積は35.2平方mm。20nm台のプロセスでは、2G-bitダイは非常にサイズが小さい。TSVではTSVホールの形成やウェハシンニング(ウェハを薄く加工する)など工程が増えるため製造コストは増えるが、それでもダイが小さいため各ダイのコストはそれなりに抑えられている。2z nmの8G-bit品でも、かつてのハイエンドDRAMのダイサイズよりはかなり小さいはずだ。8G-bit品への移行も、ニーズのある市場を考えると、それほど難しくはないだろう。

 ただし、長期的に見るとHBMの微細化には困難が伴う。先端プロセスノードへのTSV技術の適用に時間がかかるだけでなく、DRAMの微細化自体が壁に当たりつつあるからだ。DRAMの製造ノードの微細化では、DRAMベンダー2強のうち、SamsungがSK hynixより先行している。しかし、Samsungでさえ微細化はすんなり進行しているわけではない。

DRAMの利益確保と差別化のために新DRAMの導入に向かう

 開発力のあるDRAMベンダーは、利幅の薄いDDR系コモディティDRAMの比率を下げて、利幅の高いDRAM技術へと逃げようとしている。こうした状況で、モバイル系のDRAM技術に注力することに注力しているのがSamsungだ。SamsungはDRAMもあらゆる方向に伸ばしているが、特にモバイル系DRAMが強い(Elpida Memoryもモバイル注力だった)。脱PC系DRAMがもっとも急激なのもSamsungだ。それに対してSK hynixは、モバイルもやるが、Samsungとの差別化のためか相対的にグラフィックス系DRAMに注力する割合が高い。下のスライドも1年前のCompuforumのもので、DRAM種毎の比率がわかる。

各社の生産状況

 現在、DRAMベンダーは、DRAMの差別化を容量や価格ではなく、用途毎のDRAMの特殊化で成し遂げようとしている。PC&サーバー向けに開発された1品種のコモディティDRAMがDRAM市場の全て独占する時代はすでに終わっている。今後は、さらにそれが進行して、より多様化が進むのかも知れない。

 今年(2014年)から来年(2015年)にかけては、HBMだけでなく、同じくスタックドDRAMのモバイル向け「Wide I/O2」や、GDDR5から派生したメモリモジュール向けの「GDDR5M」が登場する。GDDR5Mは、メモリ帯域とメモリ増設性の両方が必要なAPU(Accelerated Processing Unit)などをターゲットとしている。また、Micron Technologyが主導する「Hybrid Memory Cube(HMC)」もサーバー向けの浸透を狙っている。

DRAMの技術動向
PDF版はこちら

 ここで出てくる疑問は、これだけのDRAM種が生き残れるだけの市場があるのかどうかという点になる。1種コモディティDRAMの時代は価格が勝負で、他のDRAM規格は価格とコストで太刀打ちできないため1種のコモディティDRAMに駆逐されて来た。現在はDRAMの多様化が進んではいるものの、DRAMの経済則はまだ部分的に生きている。十分な経済的ボリュームが市場で得られなければ、そのDRAM種は高コストなソリューションとなってしまう。

コスト面で疑問符がつくHBMソリューション

 現在、HBMについて持ち上がっている疑問は、まさにそれだ。HBMは、結果としてロジックダイとTSVシリコンインタポーザが必要な規格となっている。TSVを使う特殊なDRAMチップだけでなく、ロジックダイとTSVインタポーザのコストがHBMにはのしかかる。TSVインタポーザは、言ってみればトランジスタを形成しない配線層だけのシリコンチップだ。65nmといった古いプロセスで製造されるが、やはり一定の製造コストがかかる。HBMはGDDR5と比較すると低消費電力でより広帯域が可能という利点はあるものの、コスト増の影響は大きい。

TSVによるDRAMのスタック
PDF版はこちら
2.5Dと3Dの違い
PDF版はこちら

 そのため、GDDR5を使うデバイスのうち、低価格の製品にはHBMは適用しにくいと見られている。グラフィックスカードで言えば、ハイエンドはOKだが、ミッドレンジから下はコスト的にやや困難があり、メインストリームになるとさらに難しい。ただし、HBMのコスト計算については、強気(すぐコストが下がる)と弱気(なかなか下がらない)の両方の観測があり、まだ未知数の部分がある。

 HBMの場合は、これまでのGDDR系DRAMと異なり、DDR系メモリとのインターフェイス互換にはできない。GPU/CPU/SoCを設計する際に、GDDR5の場合は低価格なDDR3との互換インターフェイスにすることでDRAMを選択できるようにできた。しかし、HBMの場合はそれが難しい(HBMとGDDR/DDRの両インターフェイスを搭載はできるが難しい)ため、低価格の製品でのHBM対応はますます難しい。

 市場規模が限定されると、開発投資や半導体Fabでラインを確保するコストに見合う分の売り上げがあるかどうかが問題となる。GDDR5はコストを下げ、価格を引き下げて、市場でのボリュームを拡大した。グラフィックスカードでは、かつてはDDR系メモリを搭載していたメインストリームカードでも、今はGDDR5を搭載している。HBMがそれだけの普及ラインまで行くかどうかが問われる。

 CPUの場合は、DDR系メモリを搭載した上で、さらに広帯域メモリとしてHBMを載せるソリューションになる。この場合もコストは大きな問題で、特にCPU側にHBMインターフェイスの実装が必要となるため慎重にならざるをえない。GDDR5Mが浮上している理由のひとつはそこで、DDR4ではなくGDDR5Mを使えば、1世代先のメモリ帯域をモジュールで使うことができるとGDDR5Mの説明では謳われていた。DRAMの先行きは混沌としてきた。

技術のトレンド

(後藤 弘茂 (Hiroshige Goto)E-mail