イベントレポート

NVIDIA、次世代CPU/GPU「Rubin/Vera」ロードマップ発表

NVIDIAの基調講演で講演する、NVIDIAのジェンスン・フアンCEO、手に持っているのは製品版のGB200(2xBlackwellと1xGrace)

 NVIDIAは、6月4日から開催されるCOMPUTEX TAIPEI 2024に先だって、同社の基調講演を台北市内の国立台湾大学総合体育館において6月2日夕刻(現地時間)に開催した。この中でフアンCEOは、同社のAI向けGPUロードマップについて触れ「我が社の方針は1年に1度新しい製品を投入するというもので、今年(2024年)はBlackwellを投入し、来年(2025年)はその改良版となるBlackwell Ultraを投入する計画だ。さらにその先にはRubinを予定しており、その翌年にはRubin Ultraを投入する」と計画を明らかにした。

 これは2年後にはアメリカの天文学者ヴェラ・ルービン氏(2016年逝去)にちなんだもので、ラストネームRubinが次世代GPUのコードネームで、ファーストネームのVeraが次世代Arm CPUの名称だと明らかにした。

RTX AI PCを発表、Windows Copilot RuntimeからGPUを使えるAPIをMicrosoftと協業して今年中にプレビュー提供へ

NVIDIA CEO ジェンスン・フアン氏

 NVIDIAの基調講演は、COMPUTEXの主催者であるTITRAが公式にCOMPUTEXの会場で行なっている基調講演ではなく、NVIDIAが独自に開催するイベントとして開催された。

 通常COMPUTEXの基調講演は午前中か、午後14時頃などの2回程度行なわれるため、昼間に行なわれることが多いのだが、今回NVIDIAが行なった基調講演は、夜19時(日本時間20時)に始まり21時(同22時)過ぎに終わる、異例の時間帯に行なわれた。このため、フアン氏も聴衆を楽しませるビデオを放映したり、地元台湾の聴衆を楽しませるために中国語でのジョークを連発したりと、通常の基調講演とは異なるかなりくだけた感じの基調講演となった。

 ただ、内容的には、NVIDIAのCUDAによりAI研究が加速しているという話、NVIDIAのマイクロサービスであるNIMについて、産業界向けのメタバースを実現するNVIDIAのOmniverseを利用した工場の自動化についてなど、基本的には3月に行なわれたGTC 24の発表内容をおさらいする形の内容になっていた。

 その中でもいくつかの新しい発表が行なわれている。具体的には「RTX AI PC」に関する発表で、NVIDIAのGeForce RTX 4070などのdGPUを搭載した「RTX AI PC」となるノートPCをASUSやMSIがCOMPUTEXの期間中に発表するとアナウンスした。

NVIDIA版AI PCとなるRTX AI PC発表、700TOPSというNPUとは桁が違う性能を実現できるのがGPUベースのNVIDIAの強み

 RTX AI PCとは、簡単に言うとNVIDIA独自定義のAI PCの呼び方ということになる。その特徴は、NPUは使わずに、NVIDIAのGPUを利用してAI処理を行なうことだ。

 GeForce RTXには、NVIDIAがTensor Coreと呼んでいる一種のNPUになるエンジンが内蔵されている。このNPU相当のエンジンは、GPU経由でしか利用できないため、ソフトウェアベンダーがNVIDIAのGPUのTensor Coreを利用できるようにソフトウェアを対応させる必要がある。

 今回NVIDIAはそうしたISV(独立系ソフトウェアベンダー)向けに、Microsoftと協業していくつかの重要な発表を行なっている。1つはWindows Copilot Runtimeから、SLM(Small Language Model)やRAG(Retrieval-Augmented Generation)を利用する際に、NVIDIA GPUのTensor Coreを利用できるようにするAPIを提供するというものだ。これにより、ISVは、SLMやRAGの負荷をGPUにオフロードできるため、NPUは別の用途に使える。このAPIは本年中のどこかのタイミングで開発者向けのプレビューが提供される。

 なお、この発表は、Windows Copilot Runtime からGPUが演算に利用できるようになるソフトウェアに関する発表だけなので、マーケティングプログラムとしてのCopilot+ PCの要件にNVIDIAのGPUを必要とするということが加わるということではない。そのため、AMDのStrix Point、IntelのLunar Lake、そしてQualcommのSnapdragon X EliteのいずれかのSoCが必要という状況は変わらないことになる。

 また、「RTX AI Toolkit」を利用すると、NVIDIAが提供するTensorRTモデルやAIM(AI Inference Manager)などのモデルや開発環境を利用して、ISVのAIアプリケーションにGPUを利用したAI処理を可能にする。Adobe、Blackmagic Design、Topaz Labsなどのクリエイター向けで処理能力を必要とするアプリケーションを開発するISVが開発パートナーとしてあげられており、今後そうしたソフトウェア開発が加速することになる。

Grace/Blackwellの次は「Vero/Rubin」に深化し、2年後に提供される

NVIDIAのロードマップ、Rubinプラットフォームには、Rubin、Rubin Ultra、Veroなどが用意される

 講演の後半でフアン氏は、同社が3月のGTCで発表した次世代AI向けGPU「Blackwell」について言及した。Blackwell向けのソリューションを台湾のOEMメーカー、ODMメーカーがラインアップしてくれていることに触れ、「Blackwellは台湾に支えられている」とリップサービスを行なうと、会場に詰めかけた台湾の観衆は大いに盛り上がった。

H100やH200などのHopperプラットフォーム
Blackwellプラットフォーム、来年にはBlackwell Ultraを投入する

 そうしたBlackwellについて、今年Blackwellを投入した後、来年に「Blackwell Ultra」という開発コードネームになるBlackwellの改良版を投入する計画を明らかにした。フアン氏は「これはH100に対してH200があるようなものだ」と述べ、Hopper世代でもH100の改良版としてH200を投入したのと同じ位置づけの製品になると強調した。

 そして、その先の次世代製品に関して「Rubinプラットフォームを投入する。RubinプラットフォームでもまずRubinを投入し、その後Rubin Ultraを投入する」とした。

 1年ごとに新製品を投入するというファン氏の計画通りなら、2026年にRubinを、そして2027年にはRubin Ultraが投入されることになる。資料によればRubinはHBM4に対応し8ソケット、そしてRubin UltraはHBM4に対応し12ソケットになるという。

 また、同時に、Arm CPU「Grace」の後継となる製品として「Vero」をRubinプラットフォームの一部として提供していくことも明らかにしている。さらも。1,800GB/sを超える性能を実現する次世代「NVLink S Switch」、「CX8 SuperNIC」、「Spectrum-X800 Ethernet Switch」、「Quantum-X800 Switch」など、GPUをスケールアップ、スケールアウトするときのソリューションに必要な周辺チップもRubin世代で更新する計画だと説明した。

 なお、Rubin、Veroの開発コードネームは、2016年に逝去された米国の天文学者ヴェラ・ルービン氏にちなんでいると考えられ、引き続きNVIDIAの開発コードネームは科学者シリーズが続いていくことになりそうだ。