後藤弘茂のWeekly海外ニュース

Intelなどプロセッサベンダーがけん引するHBM3規格

広帯域かつ大容量へと振った第2世代のHBM2

 HBM2は、DRAM自体が高価格でベースロジックダイも必要で、実装に当たってはCPUやGPUとの間の配線を行なうインタポーザが必要となる。そのため、チップベンダーにとって高コストなソリューションとなっている。結果として、現状で採用できるのは、高価格の製品だけにかぎられてしまっている。NVIDIAを例に取ると、HBM2はハイエンドのコンピューティング向けGPUに採用し、グラフィックス向けに設計したGPUのほとんどではGDDR系メモリを採用している。

 だが、高コストにもかかわらずHBM2は需要がどんどん拡大してきた。それは、ディープラーニング(深層学習)の興隆によってGPUなどアクセラレータ類の需要がサーバー側で高まったためだ。結果として、サーバー向けGPUや高性能コンピューティング(HPC)向けのアクセラレータ/FPGAが採用するHBM2メモリの需要もどんどん増してきた。

 現在、HBM2はDRAMベンダーにとって高価格でも売れるありがたい商品となった。そして、その需要はハイエンドのユースに集中した。HBM2への現在の市場での要求は、より広帯域、そしてより大容量だ。ニューラルネットワークベースの深層学習と、IoT(The Internet of Things)などで加速されるビッグデータという要素があり、メモリ帯域とメモリ容量への圧迫はますます強まっている。スタックDRAMのニアメモリに対しては、1TB/sを超えたメモリ帯域が求められており、メモリ容量もできれば32GBがほしいという流れになっている。

 SK hynixが今回発表した第2世代のHBM2は、まさにそうした需要に応えたアーキテクチャとなっている。データ転送レートは2.66Gbpsまで上がり、ハイエンドGPU(HBM2が4スタック)ならメモリ帯域は1.36TB/s。そして、おそらく1TB/sクラスのメモリ帯域と32GBのメモリ容量を両立させることが可能となる。

SK hynixの第2世代HBM2のスペックとシュムープロット
左が旧HBM2のマルチドロップアーキテクチャ、右が新しいHBM2のスパイラルポイントツーポイント
新しいHBM2の方がアイウインドウが開く
SK hynixの第2世代のHBM2メモリ

Samsungも第2世代HBM2メモリのAquaBoltを発表

 じつは、HBM2を供給するもう1社のSamsungもSK hynixと同様に第2世代のHBM2を発表している。こちらは、まだ学会でも詳しい技術発表はないが、「AquaBolt(アクアボルト)」というコードネームで1月に公式発表されている。SamsungのAquaBolt HBM2は、製品としてのデータ転送レートを2.4Gbpsに引き上げる。1スタックあたりのメモリ帯域は307GB/sとなる。4個のスタックを使うハイエンドGPUでは、1.23TB/sのメモリ帯域となる。

 Samsungは、第1世代のHBM2「Flarebolt(フレアボルト)」では、通常の1.2V駆動では1.6Gbpsの転送レートで製品化、2Gbpsは1.35V駆動とした。2016年のISSCCでの発表時(「A 1.2V 20nm 307GB/s HBM DRAM with At-Speed Wafer-Level I/O Test Scheme and Adoptive Refresh Considering Temperature Distribution」K. Sohn, et al.,ISSCC)は2.4Gbpsまで可能とされていたが、製品では難しかったと見られる。

 しかし、第2世代のAquaBoltでは、1.2Vで2.4Gbpsを達成できるとしている。Samsungの第2世代HBM2の狙いも、SK hynixのそれと同じラインにある。そのため、SamsungのAquaBolt HBM2も、4Hi/8Hiに最適化されている可能性がある。

メインストリームDRAMのロードマップ
PDF版はこちら

立ち消えになったコンシューマ向けHBM

 こうしたHBM2の方向転換は、じつはHBM2世代だけに留まらない。今後のスタックドDRAMメモリ全体の方向にも影響を与えている。具体的には、HBM3世代のHBMでも、ある程度似たような展開となっている。

 ポストHBM2では、当初、さらに広帯域化する規格と、コンシューマ市場向けに低コストにフォーカスする規格の2つのプランが話合われていた。後者のコンシューマ向けHBMでは、コストを大幅に引き下げ、コストが問題となるコンシューマ市場へと浸透させる計画だった。

 具体的には、ローコストHBMでは、インターフェイス幅をHBM/HBM2の半分の512-bitに減らす。I/Oを狭め、ダイ間のTSV本数も減らす。また、HBM/HBM2では、DRAMダイ群の下にベースロジックダイがあるが、これも不要にする。構成としてDRAMダイの間でマスター/スレーブ構成を取る。現在のHBM2では、8GBの容量に対して1GBのECCを搭載しているが、これも取りやめる。HBM/HBM2では、高価なシリコンインタポーザを必要とするが、コンシューマ版HBMでは、低コストなオーガニックインタポーザなどでの実装を可能にする。こうした提案だった。

Samsungが2016年のHotChipsで説明したコンシューマ向けHBMのプラン
現在のHBMシステムの断面図。ベースロジックダイとシリコンベースのインタポーザが必要
PDF版はこちら

 しかし、こちらのコンシューマ製品向けHBMのプランは、少なくとも現在は検討されていないという。あるJEDEC(半導体の標準化団体)関係者は、「DRAMベンダーは規格の分裂を嫌う。コンシューマ向けに、もう1つ別なDRAMを作ることはベンダー側にとって難しい。そのため、1つの規格に統一することになった」と語る。

 しかし、別な業界関係者は、背景には顧客側の事情もあると説明する。「じつは、コンシューマ向けHBMは、ゲーム機での採用を想定していた。膨大な台数が出るゲーム機に採用されれば、市場が容易に立ち上がるからだ。だが、ゲーム機ベンダー側が、コンシューマ向けHBMの採用に乗り気ではなかった。そのため、規格自体が立ち消えになった」。

 もし、コンシューマ向けHBMが「PLAYSTATION 5(PS5)」のような次世代ゲーム機に採用されるとなっていれば、製品化はすんなりいっただろう。数千万モジュールのHBM需要が一気に産まれたからだ。

 逆を言えば、それだけの市場が確実になっていなければ、コンシューマ向けHBMは立ち上げにくい状況だということがわかる。つまり、コンシューマ市場での広帯域メモリの需要が見えにくい。市場がある程度立ち上がらないと、メモリは高価格に留まる。すると、ますます市場が成長しにくくなる、というネガティブなスパイラルにはまってしまう。それを打破できるだけの顧客を見込むことができないと、コンシューマ向けHBMは難しいようだ。

Intelなどがけん引する次世代HBM仕様

 DRAMベンダー側にとっては、現在のHBM2は高価格でもよく売れているため、あえてコンシューマ向けHBMに注力する必要が薄いという事情もある。マシンラーニング(機械学習)とビッグデータによる、ハイエンド市場での広帯域メモリの需要の拡大が、HBM2需要をけん引している。ハイエンドGPUのような高性能アクセレレータでは、HBMを使うことが当たり前になっている。

 HBM系DRAMは、もともと、広い市場に浸透して、コストも価格も安くなっていくことが予想されていた。しかし、予想より高コストになり、価格も高いために浸透はかぎられていた。そのため、市場が狭く苦戦すると思われていたのが、超広帯域メモリを必要とする市場自体が急拡大したため、HBM2メモリも予想より急伸することになった。そこで、より、広帯域かつ大容量へとバイアスがかかっているのが現状だ。

 もっとも、HBM3にあたる次世代HBMでは、ある程度の範囲の市場をカバーすることは検討されている。初代のHBMは、事実上AMDとSK hynixではじめた規格だった。しかし、HBM2では、顧客側でけん引する企業がNVIDIAとIntelに変わった。そして、次世代HBMでも、相変わらずIntelがぐいぐいとけん引しているようだ。Intelは、HBM2には非常に熱心で、自社プラットフォームでHBM2を使いたいがために、AMD GPUを採用した「Kaby Lake-G」を開発したほどだ。

4-HiのHBM2を搭載したIntelのKaby Lake-G

 現状では、HBM3についても、Intelが矢継ぎ早に要求仕様を出し、DRAMベンダー側がその仕様に沿えるかどうかを検討するという流れになっているという。Intelは、最終的にはPCにもHBM系メモリを採用することを考えている。Intelは、自社開発のeDRAMチップを広帯域バッファとして載せたCPUを作っている。このeDRAMを、HBMに切り替えることがIntelの目的の1つだ。もちろん、ハイエンドのアクセラレータでもHBMの採用を拡大していくと見られる。

 Intelはそのために、PCからHPCまでのレンジに向けた仕様を要求していると推測される。そのなかには、仕様どおりに作ると製造コスト的に難しくなるものや、技術難度が高いものも含まれるという。そのため、次世代HBM仕様は、まだ揺れている。

HBM2の低コスト化ではIntelが先陣を切る

 広帯域へと向かうスタックドDRAM。では、低コスト化はどうするのか。これについては、複数のソリューションが走っている。現状のHBM2については、まず、コストの高いシリコンインタポーザを、より低コストな技術で代替する手段が開発されている。

 Intelは8th Gen Intel Core Processors with Radeon RX Vega M GraphicとブランディングしたKaby Lake-Gでは、独自に開発したパッケージ技術「Embedded Multi-die Interconnect Bridge(EMIB)」を採用した。コストの高いシリコンインタポーザを使わずに、HBM2メモリの接続を可能にする2.5Dインテグレーション技術だ。

IntelはAMD GPUとHBM2メモリの統合に当たってEMIB技術を採用した

 また、Samsungは、昨年(2017年)のArmの技術カンファレンス「ARM Techcon」で、シリコン以外の材料の「Redistribution Layer(RDL)」によって、HBMメモリをサポートするプランを示した。ただし、RDLでのサポートでは、なんらかの制約が生じる可能性がある。

Samsungが昨年のARM Techconで示したパッケージ技術のスライド
Xilinxが2016年のHotchipsで示したマルチダイパッケージ技術の比較

 もっとも、現状では、HBM2はDRAM自体が高価であることが問題だと、HBMに注力するAMDのMark Papermaster氏(Chief Technology Officer and Senior Vice President, Technology and Engineering, AMD)は説明する。DRAM自体の価格は、HBM系メモリの市場が広がりボリュームが増えて、量産効果が出てこないと解決が難しい。スタックDRAMでは、テストなどのコストも高いが、これはDRAM自体の機能で軽減が可能となる。

 より広範な普及には、まだまだ課題が多いHBM系メモリだが、その将来性を疑う声は少ない。それは、プロセッサ側の性能の向上に対して、十分なメモリ帯域を、かぎられた電力消費の枠内で提供できる技術が、今のところスタックドDRAMしか見当たらないからだ。

 こうした状況から、将来は、メモリ-ストレージ階層のなかでワーキングメモリは、プロセッサの近く(同一パッケージ内)に据える“ニアメモリ(Near Memory)”と、拡張メモリスロットの ”ファーメモリ(Far Memory)”に分極する方向に向かうことが予想される。ファーメモリ側のDDR5と、不揮発性メモリのDIMM類(NVDIMMや3D Xpoint DIMMなど)も重要なファクタで、メモリは今後ますます複雑になりそうだ。