後藤弘茂のWeekly海外ニュース

IntelがHBM2とAMD GPUダイを統合した「Kaby Lake-G」を年内に投入

IntelのKaby Lake-Gの不思議

 IntelはスタックドDRAM「HBM2」をCPUパッケージに統合した「Kaby Lake-G」を年内に投入する。従来のeDRAM版CPUと同様に、CPUパッケージ内にHBM2のDRAMが封止されている。ただし、いくつか大きな違いがある。すでにウワサで報じられているように、GPUコアはIntelの内蔵コアではなく(内蔵コアも持ってはいる)、サードパーティのディスクリートのGPUダイだ。

 IntelがAMD GPUをCPUパッケージに取り込む話は、ここしばらく前からウワサになっていた。ボードベンダーだけではなくソフトウェア開発者にも、“サードパーティのディスクリートGPUとHBM2”を搭載する「G」型番のKaby Lakeを出すと説明されていたという。じつは、Intelは、昨年(2016年)の前半にメモリについて業界関係者に説明を行なっており、その時は、HBM2の採用は2017年中は行なわない予定となっていた。その後、HBM2採用計画の変更とともに、AMD GPUの採用とKaby Lake-Gが浮上した。

 Kaby Lake-Gのパッケージには、クアッドコア版のKaby Lakeダイと、AMDディスクリートGPUダイ、そして、HBM2が1スタック搭載されているという。HBM2のスタックのダイ層数はわからないが、HBM2はフル帯域を実現するには最低2ダイの積層が必要なので、2ダイか4ダイのどちらと推測される。メモリ容量としては、2GBか4GBのどちらかとなる。

2スタックでフル帯域を実現するHBM2
2スタックでフル帯域を実現するHBM2のメモリチャネルの概要
PDF版はこちら
2ダイのスタックのHBM2のメモリ容量
PDF版はこちら
SamsungのHBM2ダイ

 Kaby LakeダイとAMD GPUダイの間はオンパッケージのPCI Expressで結ばれていると見られる。一方、AMD GPUダイとHBM2スタックの間は、Intelの新しい2.5D(2.5次元)ソリューション「Embedded Multi-die Interconnect Bridge(EMIB)」で結ばれていると見られる。EMIBは、小さなシリコン片を使った超高密度配線によって、従来より低コストにHBM2の実装を可能とする。

 Intelは昨年前半の段階では、2017年中のHBM2の導入は、まだ考えていなかった。2018年まではeDRAMだけが、IntelのメインストリームPCでのメモリ統合ソリューションとなる予定だった。Intelシリコンのスケジュールでは、HBM2対応のCPUダイの投入は2018年であるためだ。それを、AMDのダイを導入してまで早めるとすると、かなり異例の事態だ。

 もちろん、CPU製品競争力の強化のためとも考えられる。しかし、そもそもKaby Lake-Gの対抗する相手は、GPU統合型CPUなら、AMDのAPU(Accelerated Processing Unit)「Raven Ridge」世代になるわけで、そこにAMD GPUを対抗させる理由がよくわからない。だが、この製品化が、HBM2とEMIBの導入を早めるためだと考えれば、納得も行く。

 EMIBは、すでにIntelファウンダリのサービスとして提供されており、Altera FPGAのオプションとしても提供されている。しかし、コンシューマ製品での量産という意味では、まだスタートしていない。ラーニングカーブを上げるには、まず、量産をスタートさせること。それなら、EMIBとHBM2のプラットフォームをできるだけ早く立ち上げたほうがいいことになる。Kaby Lake-Gが、Intelのパッケージ技術の露払い的な製品であると考えると、諸々の疑問が解ける。

Intelの2.5Dパッケージ戦略の露払いとなるKaby Lake-G

 Kaby Lake-Gには、3つの大きな意味がある。

 1つは、Intelが「2.5D」パッケージングソリューションに本格的に舵を切ること。2.5D、つまり、1つのチップパッケージの中に複数のチップのダイを載せるタイプの積層技術だ。これまでも、パッケージに複数ダイを載せる「MCM(Multi-Chip Module)」はIntelにも多数の製品があったと思うかもしれない。しかし、今回の2.5Dはそれとは話が違う。

 今回のKaby Lake-Gは、HBM2を採用して、複数ダイを幅広の広帯域インターフェイスで結ぶ。HBM2は1,024-bit幅のインターフェイスで、2Gtps時に1スタック当たり256GB/secの帯域を実現できる。高密度配線で結ぶことで、ダイ同士を広帯域接続する2.5D化が、今回の流れだ。

DRAMのメモリ帯域ロードマップ
PDF版はこちら
上が旧来のMCM、中央が現在のHBMのシリコンインタポーザソリューション、下がIntelのEMIB

 手始めはメモリのHBM2だが、Intelは、コミュニケーション機能のダイなどメモリ以外のダイ同士もCPUダイと広帯域接続することを目指している。Kaby Lake-Gは、その先行ケースとなるチップだ。実際、Intelはこうしたヘテロジニアスなダイの統合計画を発表している。近い将来には、Intelのチップは、複数のダイが高密度配線の2.5Dで封止されたSIP(System in Package)が一般的になるかも知れない。

Intelが発表した将来のヘテロジニアス型SIP統合ソリューションの構想図

 2つ目は、IntelのPCプロセッサが、メモリ帯域バインドから解放されることだ。IntelやAMDは、CPUコアとGPUコアの統合を進めているが、現状のDDR4などのメモリモジュール型のソリューションではメモリ帯域がGPUコアに対して足りていない。しかし、CPUは、メモリ容量とコストと増設性の面で利点があるDRAMモジュールを捨てることが難しい。ディスクリートGPUのような力業でのメモリ帯域拡張ができないことが、メインストリームCPUの弱点となっていた。

 しかし、Intelのパッケージ技術EMIBは、低コストなスタックドDRAMの実装を可能とする。超高密度な配線によって、数百GB/sの広帯域メモリを実現できる。そのため、メインストリームディスクリートGPU並のメモリ帯域を、メモリモジュールも使うCPU型の製品で実現することが可能となる。メモリ帯域のために性能を制約されることなく、内蔵GPUコアを大型化できるようになる。これは、将来に予想される、ニューラルネットワークアクセラレータコア(インファレンス用)のCPUへの統合の際にも重要な要素となる。

 3つ目は、メモリ/ストレージ階層の変革がスタートすることだ。Kaby Lake-Gは、まだ外部ディスクリートGPUダイを使う。しかしIntelの本命は、自社のCPUにHBM2インターフェイスを統合する世代だ。その世代になると、EMIBで接続されたHBM2は、CPUのメモリ/ストレージ階層の一部へと完全に統合される。

 新メモリ/ストレージ階層では、メモリ帯域はオンパッケージのスタックドDRAMで、メモリ容量はDIMMソケットのDRAMモジュールで稼ぎ、さらに、DIMMソケットに不揮発性メモリモジュールが乗り、より大容量のアドレッサブルメモリ搭載が可能となる。そのための技術の地ならしが、Kaby Lake-Gから始まると推測される。

AMDの動きに対抗して動きはじめたIntelの広帯域メモリ計画

 広帯域メモリのCPUへの統合という側面で見ると、Kaby Lake-Gまでの間には長い道のりと複雑な事情があった。広帯域DRAMのCPUパッケージへの搭載については、そもそもAMDが先に動き始めていた。AMDはCPUとGPUの統合を進めるにあたってメモリ帯域が問題になると考え、DRAMベンダーと「HBM」となるスタックドDRAM開発を進めていた。当初のAMDの構想では、ハイエンドGPUだけでなくメインストリームGPUやAPUにもHBMを早期に採用するはずだった。

 一方のIntelは、密接な関係にあるMicron TechnologyのスタックドDRAM「HMC」の構想に乗っていた。しかし、HMCは性格上、サーバーやハイエンドグラフィックス向けソリューションとなる見通しだった。それに対して、当初の構想のHBMは、より低コストとなる予定で、HMCとは異なるレイヤになる見込みだった。そのため、IntelはHMCとは別に、メインストリームPCに適用できる広帯域メモリのソリューションを必要とした。

 そこでIntelは、自社技術として開発していたeDRAMを使い、広帯域のeDRAMチップを自社で製造してCPUパッケージに搭載する方向へと進んだ。カスタムeDRAMで、広帯域かつ高効率のデータ転送を行ない、メモリ食いのGPUコアの内蔵を進める方向だ。しかし、IntelのeDRAMはDRAMセルサイズが大きく、多バンク構成としたこともあって、大容量化が難しい。このeDRAMは、本来的にはロジックチップに混載することを目指していた技術で、Intelはキャッシュへの採用も検討したと言われている。eDRAMダイは経済的なサイズではメモリ容量が限られるため、用途が限定されてしまう。eDRAMダイは大容量のスタックドDRAMが普及するまでの、中間的なソリューションにしかならない。

特殊なIntelのeDRAMのアーキテクチャ
PDF版はこちら
Intelの第2世代eDRAMダイ。セルサイズは0.029平方umと非常に大きい

 そのため、IntelはeDRAM版のHaswellを導入する一方で、JEDEC(半導体の標準化団体)でのスタックドDRAM「HBM2」の規格化に参加、HBM2スペックをCPUに採用しやすいものへと変えた。逼迫するメモリ帯域問題の解決のために、eDRAMに替えてHBM2を採用することは、Intelにとって織り込み済みの戦略だった。実際、IntelはDRAM業界に対してはHBM2の採用予定を当初から説明している。

HBM2の準備はできたがIntel CPUの準備ができていなかった

 しかしHBM規格は、途中からベースロジックダイが必要な構成に変わり、コストが予想より上昇した。また、シリコン貫通ビア(TSV:Through Silicon Via)シリコンインタポーザのコストが、見込みどおりのペースでは下がらなかった。普及がハイエンドGPU止まりとなり、生産数が伸びないためにコストが下がらないという、悪循環に陥ってしまった。

シリコンインタポーザを使う現在のHBM実装

 この状況で、DRAM業界は、TSVインタポーザを使わないHBMソリューションを模索していた。稠密配線を可能にするIntelのEMIBは、まさにHBMに応用できる技術だ。小さなシリコン片しか使わないEMIBでは、大きなシリコンダイにTSV技術を使うTSVインタポーザと比べて格段にコストを下げることができる。低コストなEMIBを使えば、TSVインタポーザを使うために高コストでメインストリームCPUに適用できないHBMを、普及価格帯に持ってくることができる。TSVインタポーザの代替技術は他にも開発されているが、IntelのEMIBはもっとも有力な技術の1つだ。

2つのダイの間を、小さなシリコンブリッジを使うことで高密度配線する
シリコンブリッジ自体はTSV技術を使わない
従来のTSVインタポーザと比べるとEMIBのブリッジは製造がシンプル
アセンブリ時にもEMIBのほうが容易になる

 Intelはこのように、まず、HBM2のスペック策定に参画してHBM2をメインストリームPCに採用しやすい規格にした。次に、HBM2を従来より低コストに統合できるEMIBを実用化した。HBM2も生産が順調に行き始めた。HBM2採用の機が熟しつつあった。ところが、このスケジュールに追いついていないものが1つあった。それは、Intel自身のHBM2対応チップだ。

 HBM2インターフェイスを実装するとなると、CPUのダイは現在のものとは別ダイを新たに設計する必要がある。IntelのCPU開発サイクルでは、時間がかかる上に、Intel CPUのロードマップが度々変更となり、HBM2対応がなかなか見えない状況になっていた。そのため、HBM2とEMIBがレディになっても、Intel自身には、それを活用できるチップが(FPGA以外は)ない状態となっていた。

 Kaby Lake-Gは、このジレンマを“ウルトラC”で解決する方法だったと見られる。他社ダイを使うことで、早期にEMIBベースのHBM2メモリソリューションを立ち上げる。ラーニングカーブを高めて、次のステップでは、より広く普及させる。Intelのメモリ戦略から見ると、Kaby Lake-Gへの経緯は見えてくる。

 ここで出てくる疑問は、もちろん、AMD側の利益は何なのかという点だ。AMDにも、相応の見返りがなければ、ここまで変な製品計画は実現できそうもない。たとえば、AMDがパッケージングだけをIntelに出してEMIBを使う(現在の流れはファウンダリによるパッケージングまでの統合で逆行する)、といったことも推測はできる。いずれにせよ、現在焦点になっているのは、プロセッサ製品そのものではない。パッケージング技術と広帯域メモリが焦点であり、Kaby Lake-Gの裏には、その部分でのIntelの動きが見て取れる。