イベントレポート
NVIDIAフアンCEO「コンピュータはAIをGPUで実行する世界へと進化」
2025年1月8日 10:28
NVIDIAは、1月7日~1月10日(現地時間)に米国ネバダ州ラスベガス市で開催されているCESに参加し、同社の共同創業者でCEOを務めているジェンスン・フアン氏が、CESの開幕を告げる前日夜の基調講演に登壇した。前日夜の基調講演は、昔はMicrosoft創業者のビル・ゲイツ氏の指定席としても知られていた由緒ある基調講演の枠で、数あるCESの基調講演の中でも枠の奪い合いになっている。
そうしたCESの前日夜基調講演に登壇したNVIDIAのフアン氏は、PC向けにBlackwellのテクノロジーを活用した「GeForce RTX 50」シリーズを発表したほか、新しいGB10と呼ばれるGrace Blackwell(CPUがArmアーキテクチャのGrace、GPUがBlackwell)を搭載した小型のAIコンピュータ「Project DIGITS」などのハードウェアを発表。また、関連ソフトウェアの新技術も発表した。
2006年のCUDAが世界を変えた
フアン氏は、基調講演の話を、同社創業時の製品である「nv1」から始めた。nv1は同社の最初のグラフィックスチップで、当時のWindows 9xが動作するPC向けに開発され、セガのゲームであるバーチャファイターリミックスなどの人気の3Dゲームがバンドルされて販売が行なわれ、現在のNVIDIAのような巨大な企業に成長する基礎を築いた製品となる。
フアン氏は「その後我々は1999年にGeForceの販売を開始し、GPUとして提供するようになった。そして現代のGPUを利用してバーチャファイターをやると、こんなにリアルなゲームとしてプレイできるようになっている」と述べ、この30年でGPUの性能が大きく向上したことをアピールした。
そうしたGPUの進化と同時に、同社が2006年にそれを汎用演算に利用するソフトウェア的な仕組みとしてCUDAを導入したことに触れ「CUDAは当初は説明することが難しい技術でまったく理解されなかった。理解されるまで6年の時間がかかり、2012年にAIの人たちがCUDAのメリットを見つけて理解が進み、今のようにAIの演算に利用できる環境ができあがった」と述べ、CUDAを基本としたソフトウェアの環境を構築するまでに時間がかかり、今はそうしたハードウェアとソフトウェアが両輪のように回り続けていることで、生成AIのような進化の速い技術を支えることができているのだと強調した。
その上で、今後はAIが認知のAI(画像認識などのマシンラーニングベースのAIのこと)から、生成AIへ、それがエージェンティックAI(人間に変わって何かを行なうAIのこと)そして最終的には「フィジカルAI」とNVIDIAが呼んでいる自動運転車やロボットなどの人間と物理的な接するデバイスに搭載されるAIへと進化していくのだと説明した。
その上で今後のコンピューティングは「従来のプログラマーが命令セットに対応したコードを書き、そのソフトウェアをCPUで実行していくことから、今後は機械自身がニューラルネットワークで学習し、AIをGPUで実行していく環境に進化している」と述べ、今後はアプリケーションがGPUベースで作られていく流れが加速していくと強調した。
GeForce RTX 50、アーキテクチャレベルでは4,000TOPSを実現
そうした全体像を示した上で、フアン氏は同社が提供するハードウェア(GPU)と、それを利用したソフトウェアに関する新しい発表をいくつか行なっている。
GPUに関しては、同社がゲーミングPC向けに提供しているGeForceブランドの新製品として、GeForce RTX 50シリーズを発表した。NVIDIAは、Ada Lovelaceの開発コード名で知られるGeForce RTX 40シリーズを2022年9月に発表しており、今回の新製品発表はそれから2年と3カ月が経過した後に発表されたことになる。
GeForce RTX 50の特徴は、NVIDIAが昨年3月に開催したGTCで発表したGPUアーキテクチャ「Blackwell」を採用していることだ。GeForce RTX 40世代では、データセンター向け製品はAmpereアーキテクチャ、PC向けのGPUはAda Lovelaceと別の名称で呼ばれていたのとは異なり、今回はどちらもBlackwellに基づく製品だという。
GeForce RTX 50は最高で920億のトランジスタにより構成されており、GDDR7のメモリを搭載し、メモリ帯域は1.8TB/sに達する。性能はGeForce RTX 40シリーズの約3倍となる4,000TOPSのAI演算性能を備え、シェーダエンジンの性能は125TFLOPSとなりGeForce RTX 40シリーズに比べて約1.5倍になると説明した。
そうしたGeForce RTX 50シリーズのデスクトップPC向けの最初の製品として、GeForce RTX 5090(3,400TOPS)、GeForce RTX 5080(1,800TOPS)、GeForce RTX 5070 Ti(1,400TOPS)、GeForce RTX 5070(1,000TOPS)を用意。前者2つは1月中に1,999ドルと999ドルで、後者2つは2月に749ドルと549ドルで販売が開始されると明らかにされた。
また、今回はノートPC向け(GeForce RTX 50 Laptop)も同時に発表されており、GeForce RTX 5090(1,850TOPS)、GeForce RTX 5080(1,350TOPS)、GeForce RTX 5070 Ti(1,000TOPS)、GeForce RTX 5070(800TOPS)の4つのSKUがあり、それぞれノートPCシステムの価格で2,899ドル、2,199ドル、1,599ドル、1,299ドルから。メーカーとしては、Acer、ASUS、Dell、GIGABYTE、HP、Lenovo、MSI、Razerなどから3月以降に投入されると明らかにされた。
20コアのArm CPUと1PFLOPSのBlackwellを搭載したGB10ベースのミニスパコン「Project DIGITS」を発表
もう1つの発表が、「Project DIGITS」と呼ばれるコンパクトなAIコンピュータになる。Project DIGITSには「NVIDIA GB10 Grace Blackwell Superchip」という新しいGrace Blackwellチップが搭載されている。
同社は「GB200」という、基板上に1つのGrace CPUと2つのBlackwellを搭載した製品をデータセンター向けに投入している。それに対して、GB10では1つのGraceと1つのBlackwellが搭載されており、圧倒的な小型化を実現。ミニPCにGB10を採用して作られたコンピュータが「Project DIGITS」となる。
なお、GB10に採用されているGrace CPUは、Coretex-X295が10コア、Cortex-A725が10コアという20コア構成になっている。フアン氏は「Graceの開発には我々のパートナーであるMediaTekが関わっている」としているため、Graceの名称はついているものの、GB200の従来のGraceとは別設計だ。GB200は144コアのNeoverse V2に基づいているからだ。
また、フアン氏が公開したGB10を見る限り、CPUとGPUの2つのチップがサブ基板上に統合されており、メモリは基板上に実装される形になっている。なお、GB10のGPU側の性能はFP4の精度で1PFLOPSとされており、GB200の20PFLOPS/40PFLOPS(スパース性利用時)に比べると、おとなしめな性能になっている。
なお、Project DIGITSのメインメモリは128GB(CPUとGPUの共用、LPDDR5x)、最大4TBのストレージというスペックになっている。Project DIGITSの市場予想価格は3,000ドルからとされており、フアン氏の「Project DIGITSを利用すると、誰もがAIの開発を簡単に行なえるようになる」の言葉の通り、GB200などのようなAIハイパースケーラーが利用しているAIスーパーコンピュータとソフトウェア的に互換性があるシステムが、比較的安価に買えるということがメリットになる。
RTX AI PC向けのAIエージェント開発環境や新しいファウンデーションモデルなどソフトウェア各種を発表
ハードウェアだけでなく、NVIDIAのハードウェアを生かすAIソフトウェアの開発環境などに関しても時間を割いて説明した。
たとえば、Windows向けには、同社が「RTX AI PC」と呼ぶ、NVIDIAのGPUが入ったAI PC向けを訴求している。そのRTX AI PC向けのAIエージェントの開発キットを提供していくことを明らかにした。具体的にはWindows Subsystem for Linux (WSL) を搭載した Windows 11ベースのPCに、NVIDIAの推論アプリケーション開発環境になる「NIMマイクロサービス」を手軽に組み込み、Black Forest Labs、Meta、Mistral、Stability.AIなどのファウンデーションモデルを利用して、AIエージェントに対応したアプリケーションを手軽に構築することが可能になる。
また、自社開発のファウンデーションモデルとしてオープンモデルの「Llama Nemotron」を発表し、その最初の製品となる「Llama Nemotron Nemo」の提供を明らかにしている。そちらも開発者はNIMマイクロサービスを利用して簡単に利用することが可能で、AIエージェントの開発などがこれまでよりも手軽にできるようになる。
また、NVIDIAがフィジカルAIと呼んでいるAIロボットや自動運転自動車の統合開発環境として「Cosmos 世界基盤モデル プラットフォーム」(Cosmos WFM)を発表したことも明らかにされている。
Cosmos WFMは、ロボットや自動運転を構築する時に必要になるAIエージェントの開発時に必要なモジュールを統合的に提供。たとえば、ロボットや自動運転の構築には、効率の良いAI学習が必要になる。Cosmos WFMでは、そうした学習に必要なデータを自身が生成できる。これにより、効率の良いAIエージェントの構築が可能になる。
このようにフアン氏は、CUDAの普及により汎用コンピューティングの演算環境として利用することができるようになったハードウェアと、それを活用するAIエージェントを開発するソフトウェアの両輪に関して説明し、詰めかけたCESの参加者に今やITだけでなく一般的な産業界でも利用されるようになった生成AIを活用する環境としてのNVIDIA製品を印象づけて講演を終えた。