ニュース

AMD、128コアCPU「EPYC 97X4」と生成AI向けGPU/APU「Instinct MI300」発表

今回AMDが発表した新しいデータセンター向けのソリューション、左からBergamoこと第4世代AMD EPYC 97X4プロセッサ、Genoa-Xこと3D V-Cache搭載 第4世代AMD EPYCプロセッサー、DPUのAMD Pensando DPU、生成AI向けGPUのAMD Instinct MI300Xアクセラレータ(出典:Data Center and AI Technology Premiere、AMD)

 AMDは、6月13日(米国時間)に米国カリフォルニア州サンフランシスコ市内の会場において「Data Center and AI Technology Premiere」という名称のイベントを開催し、基調講演の中でデータセンター向けソリューションを発表。最大128コアの「第4世代AMD EPYC 97X4プロセッサ」、および3D V-Cacheを搭載した「3D V-Cache搭載 第4世代AMD EPYCプロセッサ」という2つの新しいデータセンター向けCPUを発表した。

 また、生成AI向けのGPU/APUとなる「AMD Instinct MI300 シリーズ・アクセラレータ」も同時に発表。次世代のCDNA 3アクセラレータアーキテクチャを採用したGPUで、最大で192GBのHBM3メモリに対応する。さらに、CESで存在が明らかにされたCPUとGPUが1チップに搭載されているデータセンター向けAPUは「AMD Instinct MI300A」という製品名であることが明らかにされた。

Zen 4cで128 CPUコアのBergamo、3D積載キャッシュを搭載して1.1GB L3キャッシュを実現したGenoa-Xが正式発表

Bergamoこと第4世代AMD EPYC 97X4プロセッサー(出典:Data Center and AI Technology Premiere、AMD)

 Data Center and AI Technology Premiereの基調講演で発表されたのは、データセンター向けの新しいCPU2製品、GPU1製品、そしてCPUとGPUをパッケージ上で1チップとしたAPUが1製品の、合計4製品だ。

 AMDは昨年の11月に開発コードネーム「Genoa」(ジェノア)で知られる「第4世代AMD EPYCプロセッサー」を正式に発表しており、その時点でGenoaのバリエーションとして開発コードネームでBergamo、Genoa-X、Sienaという開発コードネームで呼ばれている製品を、前者2つは今年(2023年)前半に、後者は今年後半に投入すると明らかにしていた。今回のイベントで発表されたのはBergamo、Genoa-Xの2製品となる。

 開発コードネームBergamoで知られる高密度CPUは「第4世代AMD EPYC 97X4プロセッサー」(以下EPYC 97X4)として発表。EPYC 97X4は、AMDが「Zen 4c」として開発してきた軽量版Zen 4コアをベースにしたデータセンター向けCPUで、1つのCPUパッケージで128のCPUコアを実現していることが最大の特徴となる。

 第4世代EPYCが1パッケージで最大96コア構成であるのに対して、128コアと約1.33倍になっている。第4世代EPYCでは、8コアのCPUダイをチップレットで12個(と1つのIOD)搭載して96コアを実現しているが、Zen 4cベースのEPYC 97X4では16コアのCPUダイをチップレットで8個(と1つのIOD)搭載して、128コアを実現している。

 CPUコアは電力効率をより重視した設計のZen 4cになっているため、1つあたりの性能は下がるが、サーバー1つあたりのCPUコア数を増やせる。たとえば、VMwareのような仮想マシン環境で利用すると、1つのサーバー機器で実現できるCPUの数を増やせるので、より柔軟な仮想マシン環境を構築することが可能になる。

 AMDによれば、最上位SKUとなるEPYC 9754は、既に市場にある製品と比較して電力効率が約2.7倍になり、Ampere Altra Max 128-30と比較して同じサーバー数で3倍のコンテナを格納できるようになる。

Genoa-Xこと3D V-Cache搭載 第4世代AMD EPYCプロセッサー(出典:Data Center and AI Technology Premiere、AMD)

 Genoa-X知られる3D方向にL3キャッシュを搭載しているCPUは、「3D V-Cache搭載 第4世代AMD EPYCプロセッサー」(以下3D V-Cache搭載 第4世代EPYC)として正式に発表。第3世代EPYCでも、L3キャッシュをCPUダイの上に3D方向に積載している「3D V-Cache搭載 第3世代AMD EPYCプロセッサー」(開発コードネーム:Milan-X)を投入してきたが、3D V-Cache搭載 第4世代EPYCはその後継となる製品だ。

 基本的なスペックは第4世代EPYCと同じだが、L3キャッシュは最大で1.1GBとメインメモリ並の容量に増やされているのが大きな違いとなる。

 AMDによれば、3D V-Cache搭載 第4世代EPYCにより流体力学のシミュレーションなど科学演算を行なう性能が向上し、IntelのXeon Platinum 8480+(56コア)ないしはXeon Platinum 8490X(60コア)と比較して、Altair AcuSolve 、Ansys Fluent 、OpenFOAM 、Ansys LS-Dyna などのシミュレーションソフトにおいて2倍のジョブを実行できるようになる。

BergamoとGenoa-Xは既に出荷開始(出典:Data Center and AI Technology Premiere、AMD)

 いずれの製品も既に出荷が開始されている。なお、今回発表されなかったSienaは予定通り今年(2023年)の後半に提供開始になる予定だという。

GPUとAPUとなるInstinct MI300 シリーズが発表、GPUはMI300X、APUはMI300A

AMD Instinct MI300A(1月のCESで撮影)

 続けて、1月のCESで開発意向表明を行なった「AMD Instinct MI300 シリーズ・アクセラレータ」(以下Instinct MI300 シリーズ)の正式発表を行なった。純粋なGPUの「AMD Instinct MI300Xアクセラレータ」(以下Instinct MI300X)と、APU(CPU+GPU)の「AMD Instinct MI300A」(以下Instinct MI300A)の2製品となる。

 Instinct MI300Xは従来のInstinct MI200シリーズ・アクセラレータの後継となるデータセンター向けのGPUで、従来のMI200シリーズで採用されていたGPUアーキテクチャとなるCDNA 2の後継となるCDNA 3を採用している。

 GPUメモリは最大で192GBのHBM3メモリを搭載しており、Instinct MI200シリーズの128GBから増やされていることが大きな特徴となっている。このInstinct MI300Xの1つのモジュールで、400億パラメータを持つLLMの「Falcon-40B」の処理を行なうことが可能になる性能を秘めているとAMDでは説明している。

 また、AMDは同社のGPUを活用するためのソフトウェア開発キットとして「ROCmソフトウェア」をAIやデータセンター開発向けに提供しているが、生成AIの実現にもそれを拡充し、AI業界のソフトウェアベンダーと協力して普及を目指すことを明らかにしている。AMDによれば第3四半期に主要顧客に対して出荷を開始する計画だ。

 1月のCESでサンプルが公開されたAMD Instinct MI300Aは、CPUとGPUがチップレット技術を利用して1チップになっているAPU(Accelerated Processing Unit)となっている。こうしたCPU+GPUを1つにしたプロセッサは、現在データセンター向けではトレンドになっており、5月末のCOMPUTEX 2023ではNVIDIAがArm CPU+NVIDIA GPUとなるNVIDIA GH200(開発コードネーム:Grace Hopper)を正式に発表している。

 Instinct MI300AもそうしたCPU+GPUを1チップで実現している形になるが、NVIDIAのGH200がモジュールレベルでの統合であるのに対して、Instinct MI300Aは1チップというより小さなフォームファクタで実現していることがアドバンテージとなる。AMDによればInstinct MI300Aは既に顧客向けにサンプル出荷が開始されている。

AMD、昨年買収しPensando由来のDPUロードマップやソフトウェア開発キットを発表

AMD Pensando DPU(出典:Data Center and AI Technology Premiere、AMD)

 このほかにもAMD同社のDPU(Data Processing Unit)となる「AMD Pensando DPU」(以下Pensando DPU)を既に発表している。Pensando DPUは、AMDが昨年(2022年)5月に買収完了を明らかにしたPensando Systems由来の製品で、従来はCPUが処理していた仮想マシンのオーバーヘッド処理をDPUへオフロードすることで、CPUをそうした処理から解放してデータセンター全体のCPU処理能力を引き上げることが可能になる。NVIDIAがDPU、IntelがIPUと呼んでいる製品と同じような機能を持つ製品と言える。

 今回のData Center and AI Technology Premiereでそのデモを行なったほか、次世代のDPU製品となる「Giglio」(開発コードネーム、ジリオ)の存在を明らかにした。AMDによれば現行製品に比べて性能と電力効率が改善される予定で、2023年の終わりまでに提供が開始される予定だ。

 また、そうしたAMDのPensando DPU向けのソフトウェア開発キットとしてPensando Software-in-Silicon Developer Kit(Pensando SSDK)を顧客に提供開始することを明らかにした。それにより、Pensando DPUを利用したネットワークの仮想化、セキュリティ機能などの機能をソフトウェアに組み込んで活用することなどが可能になるとAMDは説明している。

 なお、現地時間の6月13日午後には、Data Center and AI Technology Premiereは引き続き各種セッションが予定されており、今回発表したデータセンター向け製品の詳細を説明される。本誌ではそうしたセッションの内容に関して引き続きお伝えしていく予定だ。