イベントレポート
AMD、Copilot+ PCへの対応、NVIDIA AI用GPUに対抗するロードマップとオープン規格をアピール
2024年6月4日 09:48
AMDは、6月4日より台湾・台北市の台北南港展覽館(TaiNEX)で開催されているCOMPUTEX 2024に出展し、同社のパートナー企業と同社製品のアピールをしている。その前日となる6月3日にはオープニング基調講演に、同社CEO リサ・スー氏が登壇し、同社の最新製品となるRyzen 9000シリーズ、Ryzen AI 300シリーズ、第5世代EPYC、Instinct MI325Xなどを発表した。
基調講演には、AMDのパートナーとなるMicrosoft、HP、Lenovo、ASUSなどのOSベンダー/PCベンダーの幹部が登壇し、MicrosoftのCopilot+ PCに対応するRyzen AI 300シリーズを搭載したノートPCなどをアピールした。
Ryzen 9000シリーズの実チップが公開される、Intelの第14世代Coreと比較して高い性能を発揮
今回AMDは、実に数多くの製品を発表しており、それらに関しては既に別記事で紹介しているので、詳しいスペックや発表概要に関してはそちらをご参照いただきたい。
この中でも大きな焦点が当てられたのが、クライアントPC向けの「Ryzen 9000」と「Ryzen AI 300」、そしてデータセンター向けの「第5世代EPYC」と「Instinct MI325X」になる。
スー氏はRyzen 9000シリーズについて「ゲーミングPC向けの新しいZen 5に基づいたCPUを提供する。他社製品(第14世代Core)との比較でも比類なき性能を発揮する」と紹介し、ヒートスプレッダを取り外した実製品を紹介した。
Ryzen AI 300を搭載したHP、Lenovo、ASUSのCopilot+ PCが公開され、ASUSは7月にも出荷開始と明らかに
今回の講演でスー氏がもっとも時間を使ったのがRyzen AI 300シリーズに関して。というのも、Ryzen AI 300シリーズは、Microsoftが5月に発表した新しいAI PCとなる「Copilot+ PC」に対応した製品になるからだ。
既報の通り、MicrosoftはCopilot+ PCのNPUが40TOPSを実現している必要があり、AMDの従来製品(Ryzen 7040/8040シリーズ)は10~16TOPSであったためこれを満たしていなかったのだ。
今回スー氏は「ソフトウェアの人たちは常に性能、性能、TOPS、TOPSと言ってくる。Ryzen AIはそうしたニーズに応えるもので、50TOPSという業界で最高の性能を実現している」と述べ、Ryzen AI 300シリーズのNPU「XDNA 2」が50TOPSという、QualcommのSnapdragon Xシリーズの45TOPSを上回る性能であることをアピールした。
その上で、Microsoft Windows・デバイス担当 執行役員 パヴァン・ダビュルリ氏をステージに呼び、AMDとMicrosoftが協力してCopilot+ PCの普及を目指していくとアピールした。
ほかにも、HP CEO エンリケ・ロレス氏、Lenovo Group 上級副社長 兼 Intelligent Devices Group(IDG、インテリジェントデバイス事業部) President(事業部長) ルカ・ロッシ氏、ASUS 会長 ジョニー・シーなどのOEMメーカーの幹部をステージに呼び、3社がそれぞれ製品を発売する計画であることを明らかにした。HPのロレス氏、Lenovoのロッシ氏はいずれも開発中のRyzen AI 300シリーズを搭載したCopilot+ PCとなるOmniBookとYOGAを公開した。
ASUSに関しては同日にRyzen AI 300を搭載したPCが発表されており、詳しくは以下の記事をご参照いただきたい。
ASUSのシー氏は「これらの製品は7月には発売する」と述べたように、Ryzen AI 300シリーズを搭載した製品を7月から提供が開始される計画で、早ければ7月にはCopilot+ PCのx86版が市場に登場することになる。
第5世代EPYCは今年後半に投入、HBM3e/288GBメモリに対応したInstinct MI325Xを発表
今年(2024年)後半に投入するとAMDが明らかにした最大192コアとなる第5世代EPYCに関しては128コア版の第5世代EPYCが、Intelの第5世代Xeon 8592+(64コア)との比較で3.1倍の性能を発揮し、Llama 2-7BのAIモデルを利用した学習では、そのスループットが89トークン/sであるのに対して、第5世代EPYCは345トークン/sだと紹介した。
また、AMDのデータセンターAI向けのGPU「Instinct MI300X」に関しては、既にMicrosoftのAzureなどのクラウドサービス事業者(CSP)に採用されていることを紹介し、Microsoftのサティヤ・ナデラCEOのビデオのコメントなどを紹介しながら、「現時点でGPT4を利用するのにもっと費用対効果が高いのがInstinct MI300X」と強調し、NVIDIAのH100/H200などのNVIDIA GPUの「オルタナティブ」(別の選択肢)として、急速に存在感が高まっていることをアピールした。
そのInstinctの新製品としてAMDは「Instinct MI325X」と呼ばれるメモリをHBM3eに強化したバージョンを今回のCOMPUTEXで発表している。Instinct MI325XはHBM3eに対応することでメモリ帯域が高まっているほか、メモリが最大288GBに強化されており、AI学習の現場で高まるばかりのメモリ容量への要求に応えた製品になる。
また、スー氏は来年以降に投入され次世代のInstinct MI350Xに関しても紹介した。CDNA 4という次世代GPUアーキテクチャに対応し、最大で288GBのHBM3eを搭載し、新しくFP6/4の精度に対応し、3nmのプロセスノードで設計される製品になる。スー氏はNVIDIAが公開しているBlackwellのスペックと性能と比較して、メモリ容量は1.5倍に、そしてAI演算性能は1.2倍になると強調した。
AMDはさらに2026年にはMI400というCDNA4の次世代GPUアーキテクチャ製品に対抗する製品をリリースする計画があり、NVIDIAがその前日の同社公演で明らかにした、2026年にRubin、2027年にRubin Ultraに対抗できるようなロードマップをAMDも敷いているのだとアピールした。
NVIDIAの強みであるNVLinkとInfiniBandの寡占を崩す
続けて、さらにNVIDIAを意識したスケールアップ、スケールアウト時のインターコネクト/ネットワークのオープン化に関して語った。
データセンターAIにおけるNVIDIAの強みは、CUDAのようなソフトウェア環境を押さえていることと、NVIDIAプロプラエタリ(IPで守られた独自規格)のスケールアップ用のインターコネクト(NVLinkおよびNVLink Switch)と、スケールアウト用のネットワーク(InfiniBand、InfiniBandは標準規格であるが同社が買収したMellanox由来のInfiniBandは事実上同社のGPU向け専用製品となっている)を押さえていることの2つだと認識されている。
そのため、GPUとGPUを接続するスケールアップ用のインターコネクトと、スケールアウト用のネットワークの標準化が必要だとAMDは以前から訴えてきた。そうしたAMDが先週発表したのが「Ultra Accelerator Link(UALink)」だ。
「UALinkは我々のInfinity Fabricを寄贈して作られた規格になる。AMD、Broadcom、Cisco、Google、Hewlett Packard Enterprise、Intel、Meta、Microsoftなどの業界リーダー各社が参加してオープンな規格とすることで、スケールアップのオープンで柔軟にできるようにする」と強い姿勢を明らかにした。
同時に、既に昨年(2023年)発表していた、スケールアウト用のEthernet標準規格となる「Ultra Ethernet」に関してもコンソーシアムで順調に開発が進んでいることをアピールして、スケールアップ用「UALink」とスケールアウト用「Ultra Ethernet」の2つのオープン規格の組み合わせで、NVIDIAによるデータセンターAIの寡占化を崩していきたいという意向を表明した。