イベントレポート
NVIDIAフアンCEO「Intelファウンドリのテストチップは良好」
2023年5月31日 11:14
COMPUTEX 2023が5月30日~6月2日の4日間にわたり、台湾・台北市の南港第1展示ホールおよび南港第2展示ホールで開催されている。その会期前日の5月29日に行なわれた基調講演には、NVIDIAのジェンスン・フアンCEOが登壇し、Arm CPUとHopper GPUをモジュールに統合した同社の最新製品となる「NVIDIA GH200 Grace Hopper Superchip」(開発コードネームGrace Hopper、以下GH200)を正式に発表。さらに、そのGH200を256基搭載して1EFLOPSものAI性能を実現するスーパーコンピュータを「DGX GH200」として本年の2023年末までに提供開始することを明らかにした。
NVIDIAは翌5月30日に、フアンCEOの質疑応答を行ない、生成AIやその生成AIを支えるデータセンターに関して説明した。また、フアン氏は、Intelが2024年から本格的に展開するファウンドリサービスとなるIFS(Intel Foundry Services)の利用に関しても言及。Intel CEO パット・ゲルシンガー氏と協議を行なっていることや、最近次世代プロセスのテストチップを受け取ったことを明らかにし、その結果は良好であるように見えたと説明した。
CUDAとGPUでアクセラレーテッド・コンピューティングを実現していくNVIDIA
コロナ禍になって以降、NVIDIAの記者会見やプライベートカンファレンス(GTC)はすべてバーチャルで開催されてきており、フアン氏がリアルな講演や会見などに登壇するのは今回が初めての機会となる。そのため、フアン氏は5月29日に行なった基調講演の冒頭で「この4年間で初めて公共の場でお話しする機会になる」と話し、詰めかけた聴衆を沸かせた。
今回のフアン氏は、どこかのアイドルグループがCOMPUTEXに来ているのかと思わせるような人気ぶりで、どこに行っても人に囲まれている、そんな歓迎を受けている。筆者が参加した記者会見でも、すぐに記者がフアン氏を囲んで自撮りの記念撮影を開始してしまうような状況で、まるで男性アイドルを囲むようなシーンがそこかしこで展開されていた。
そうした中で、フアン氏はここ10年、NVIDIAがCUDAとGPUを武器に展開してきた「アクセラレーテッド・コンピューティング」から話を始めた。アクセラレーテッド・コンピューティングとは平たく言えばGPUとそのソフトウェアを開発するためのツールキットであるCUDAを組み合わせることで、大規模なコンピューティング処理を高速に行なうやり方だ。
CPUは基本的にメモリからデータを読み込んできて、1つ1つ順番に(実際には順番を入れ替えながらではあるが)処理を行なっている。これに対して、GPUではそれをパラレルに、つまり並列に実行していくことで、大量のデータをCPUよりも高速に処理できる。
AIの分野では、AIにはモデルにデータを読み込ませる「学習」と、学習の成果を元にAIになんらかの処理をさせる「推論」という2つの処理があるが、そのうち特に学習においては、大量のデータを処理する必要があるため、GPUを利用することが性能を上げるための近道というのは共通認識だ。フアン氏は「現状AIの処理のうち90%は学習、残り10%が推論だ」と述べ、引き続き学習を高速化することが求められており、NVIDIAはGPUの種類を増やして対応していっていると強調した。
フアン氏は「GPUがディープラーニングの学習に使われるようになった2010年代後半には、こうした単体GPUだけを我々は提供していた。しかし、そこから10年程度が経過してさまざまなGPUのラインアップを増やしてきた。
先日のGTCで発表した2つのGPUを接続しているH100 NVL、さらには先日から出荷を開始したDGX H100のようなGPUを8つ搭載したコンピュータ、そして今回発表したGrace Hopperなどさまざまな製品をリリースしている。重要なことは、こうしたDGX H100のような巨大なコンピュータであっても、1つのGPUとして扱える。それが、我々がCUDAと呼んでいるプログラミングモデルの利点だ」と述べ、伸縮自在な柔軟性こそが、CUDAにより実現されているNVIDIA GPUの強みだと強調した。
アクセラレーテッド・コンピューティングと高速ネットワークがデータセンターを変革する
フアン氏によれば、こうした取り組みは、データセンターをよりモダン化する取り組みの1つだという。というのも、現状のデータセンターはいくつかの課題を抱えている。
1つ目としては、生成AIやLLM(大規模言語モデル)のようなよりパラメータの数が大きな新しいモデルが登場し、そのニーズが急速に高まっていることだ。
2つ目としては、増え続けるデータセンターの消費電力に対して答えを出さないといけないという、NVIDIAだけでなく業界全体で対処していかないといけない課題がある。1月に行なわれたIntelの第4世代Xeon Scalable Processorの発表会にビデオ出演したフアン氏は「現在のデータセンター全体の消費電力は、全世界の消費電力の4%に達している」と述べ、そうした問題に何か答えを出していかないといけないと強調している。
そして3つ目の課題として、データセンターをスケールアウト(何らかの接続方法でサーバーとサーバーを接続して1つのスーパーコンピュータとして使うための手法)する場合に使われるネットワークを、より高速で安定した方法にアップグレードして、データセンター全体の効率を高めていく必要がある。
フアン氏はこうした問題について、1つ目と2つ目の課題には「アクセラレーテッド・コンピューティング」を、3つ目の課題に関しては「より高速なネットワークの導入」が必要だと説明した。
フアン氏は「CPUは確かに柔軟性があるが、性能という点では今やAIには適していない。それよりも、10倍、20倍、100倍と桁違いで処理が行なえるGPUを利用することが重要だ。そしてそれは消費電力という課題に対しても答えになる。同じ電力量で10倍、20倍と仕事をさせられるということは、同じ処理能力であれば電力を削減できるということだ。その結果、すべてのワークロードを高速化でき、かつデータセンター全体での消費電力を下げることが可能だ」と述べ、世界中のデータセンターがCPUに変えてGPUを導入することで、処理能力の需要増大と消費電力削減という、相反する課題を一挙に解決できると強調した。
そして今回NVIDIAは「NVIDIA Spectrum-X Platform」と呼んでいるAIデータセンター向けのEthernetスイッチを導入している。同社がDPU(Data Processing Unit)と呼ぶ、ネットワーク利用時のCPU/GPUなどへのオーバーヘッドを減らす「BlueField-3」と組み合わせることで、DGX GH200のようなスーパーコンピュータでのAI処理能力を高められる。
フアン氏は「我々はEthernetを再定義した。それがSpectrum-Xで、51.2Tbpsの帯域を実現しており、GPUベースのスーパーコンピュータの潜在能力を引き上げられることができる」と述べ、そうしたGPU、DPU、新しいEthernetスイッチのような複数のデータセンター向け製品を投入して顧客に提供することで、データセンターのモダン化を実現して、データセンターが抱える課題を解決していきたいと説明した。
生成AIは人間の副操縦士となり、代わりにさまざまな作業をやってくれるように
フアン氏は、生成AIがどのように社会を変えていくと予想されるか、という質問に対して以下のように述べた。「ディープラーニングの登場がコンピューティングの形を変えたと言っていい。それによりソフトウェアの形が大きく変わった。今あるコンピュータとソフトウェアは前世代の姿を引きずっており、それを新しい時代にあうように変えていかなければならない。
生成AIは現在世界でもっとも急速に成長しているアプリケーションだ。なぜかと言えば、簡単で非常に使いやすいからであり、その需要は非常に大きいと言える。将来的には、生成AIを利用するといつでもどこでもアプリケーションに簡単にアクセスできるようになる。
たとえば資料を作りたいと思えば、今はPowerPointやWordを開いて、文章を作り、画像を探してきて資料を作っていく必要がある。しかし、未来にはそうしたアプリケーションにテキストで指示を与えるだけでAIが資料を作ってくれるのだ。
そのように将来的にはコンピュータのあらゆるところにAIが入り込むようになる。ブラウザを開けばそこにAIがいる。ゲームをすればAIと一緒にプレイすることが可能になるのだ。あるいは今はYouTubeに行ってお気に入りの動画を自分で見つける必要があるが、将来はまずヒントをAIに与えるだけでよい。するとAIはそのヒントを元にいろいろ探してきてくれるのだ。それが未来だ」。
今はAIそのものがアプリケーションになっているが、将来はMicrosoftがMicrosoft Copilotシリーズで示して見せているように、WebブラウザやOfficeアプリケーションなどさまざまなアプリケーションにAIが溶けこんでおり、AIがあることを人が意識しなくても便利に使っている、そうした未来が来るとフアン氏は予想しているという。
NVIDIAは既にIFSのテストチップを受け取り、結果は良好
最後にフアン氏のNVIDIAのファウンドリ戦略についてお伝えしておこう。フアン氏は「我々は常にファウンドリの活用に関しては多様性と冗長性を重視している。というのも我々には多くの顧客がいて、その顧客に製品を安定して供給できることが何よりも大事だからだ。その観点で長期間にわたりTSMCとはいい関係で協業できていると思うし、それはSamsungとも同様だ。
そしてIntelとも彼らのファウンドリサービスで製造することをオープンに話し合っており、Intelやパット(Intelのパット・ゲルシンガーCEO)とも過去に彼らのファウンドリに関する評価について話をした。そして最近次世代プロセスのテストチップの結果を受け取ったが、それは良好に見えた」と述べ、NVIDIAがIntelのファウンドリを検討しており、次世代プロセスのテストチップを受け取るような段階まで話が進んでいることを明らかにした。
現在NVIDIAは製品によりファウンドリを変えているような状況だ。たとえば、NVIDIA H100 GPUやGeForce RTX 40シリーズ(Ada Lovelace)はTSMCの4nm、1世代前のNVIDIA A100 GPUはTSMCの7nm、GeForce RTX 30シリーズはSamsungの8nmとなっており、TSMCとSamsungが入り乱れている状況だ。つまりフアン氏の言う通り、世代世代でよいものを選んでおり、TSMCの一本足打法ではないということだ。
なお、Intelのファウンドリサービスに関しては、5月30日のCOMPUTEX初日に基調講演を行なったQualcommも同様に言及している。
同社 上席副社長 兼 モバイル/XR事業部長 アレックス・カトージアン氏は「我々もIntelと製造委託する可能性を話しており、既にいくつかのテストを行なっている。強調しておきたいのは、我々は常に複数のファウンドリを使ってきており、あるファウンドリからほかのファウンドリへと移行するということ何度もやっている。それが我々のアドバンテージになっており、もちろんIntelともそれが可能だと考えている」と述べ、Qualcommも既にいくつかのテストを行なっていることを明らかにした。なお、Qualcommは既にIntel 20A世代からIFSを利用する契約を結んでいることをIntelが明らかにしている。
フアン氏の言う次世代のプロセスノードというのがどの世代かははっきりしておらず、2024年はやや時期尚早と考えられるが、2025年などにIntel 20AやIntel 18AなどのプロセスノードでNVIDIAがIntelのファウンドリサービスであるIFを利用する可能性が出てきたと言えるだろう。