ニュース

産総研のクラウド型スパコン「ABCI-Q」にNVIDIA H100が採用

GTC 24の会場となるサンノゼコンベンションセンター

 NVIDIAは3月18日~3月20日の3日間にわたり、同社のAIやデータセンター向け半導体などに関する話題を扱うフラグシップ年次イベント「GTC」を、米国カリフォルニア州サンノゼのサンノゼコンベンションセンターにおいて開催する。3月18日13時(日本時間3月19日午前5時)からは、同社の共同創始者でCEOのジェンスン・フアン氏による基調講演が行なわれ、新しいGPU「Blackwell」(開発コードネーム)を含む、いくつかの新発表が行なわれた。

 この中でNVIDIAは、国立研究開発法人産業技術総合研究所(AIST、以下産総研)の量子・AI融合技術ビジネス開発グローバル研究センター(以下G-QuAT)が構築を目指している量子・AIクラウド「ABCI-Q」向けスーパーコンピュータに、NVIDIA H100 Tensor Core GPU(以下H100)が2,000基以上採用されることを発表した。

 また、NVIDIAのデジタルツイン向けプラットフォーム「Omniverse」がApple Vision Proに対応したことに加え、同社のロボット向けプラットフォーム「Issac Robotics Platform」をアップデートし、ヒューマノイド(人間の形をしたロボット)の実現を目指すためのファウンデーションモデル「Project GR00T Foundation Model」を提供開始することなどを発表した。

産総研の量子コンピュータ開発を加速するスーパーコンピュータにH100が採用

ABCI-Qのイメージ

 NVIDIAのGTCは、元々はGPU Technology Conferenceの略称として名付けられたという歴史があり(現在ではこのフルネームは使われず、シンプルにGTCとだけ呼ばれている)、GPUの話題を中心としたイベントになっていた。このため、以前は一般消費者向けのCPU、つまりゲーミング向けのGPUも取り上げられていたが、現在はGPUの一番のアプリケーションとなっているAIやデータセンター向けの話題が中心となっている。

 特に近年は、NVIDIAのAI向けGPUが発表される場として活用されている。これまでのAI向けGPUとなるH100、さらにはNVIDIA A100 Tensor Core GPU(以下A100)など、最近のAI向けGPUはいずれもGTCで披露されており、そうしたAI向け半導体の各種ソリューションがこのGTCで発表されることが多くなっている。

 今回のGTCでもそうしたAI向けGPUの話題が数多くあるわけだが、日本向けの話題としては、産総研G-QuATが構築を目指している量子・AIクラウド「ABCI-Q」のスーパーコンピュータに、NVIDIA H100が採用されたことが明らかになった。産総研G-QuATのABCI-Qは、高い性能と再現性を持つ量子コンピュータのシミュレーションの構築を目指しており、NVIDIAのCUDA-Q(量子コンピュータのシミュレーションを実現するためのCUDA)とH100ベースのスーパーコンピュータの組み合わせによりその実現を目指す。

 NVIDIAと産総研によれば、H100が採用されたABCI-Qのスーパーコンピュータは、500基以上のノードに2,000基超のH100を搭載したサーバーによって実現されており、それぞれのノードはネットワーク処理の負荷をオフロードすることでCPUやGPUの負荷を下げて通信できるようにする「NVIDIA Quantum-2 InfiniBand」(400GB/s)により接続されている。このスーパーコンピュータの構築は富士通により行なわれており、2025年の早い時期からの稼働を目指している。

 ABCI-Qは、日本のAI・量子コンピュータ開発促進政策の中で最も重要な位置を占めるものだと考えられており、こうしたスーパーコンピュータの導入により、その研究が加速することが期待できる。

大企業向けAI開発環境が進化。開発を容易にするマイクロサービス「NIM」を導入

NVIDIA AI Enterprise 5.0ではNIMという新しいマイクロサービスが導入される

 またNVIDIAは、同社が大企業向けに提供している、AIや生成AIの開発をより容易にする開発環境「NVIDIA AI Enterprise」の最新版となる「NVIDIA AI Enterprise 5.0」を発表した。

 NVIDIA AI Enterprise 5.0では、新しいマイクロサービス「NVIDIA NIM」が導入される。NIMは簡単に言うと、サーバー側で動かすAI推論アプリケーションがコンテナ形式で提供される形となり、大企業は自社でそうしたサービスを開発しなくても、市場で販売されているサービスを購入して、自社の顧客向けサービスなどに利用できるようになるというもの。NVIDIAの説明では、ライドシェア企業として知られているUberがすでに自社のサービス提供に活用しているという。

 NIMは、AWS、Google Cloud、Microsoft Azure、Oracle CloudといったCSP(クラウドサービスプロバイダー)のマーケットプレイスで今後すぐに提供開始される予定で、自社のデータセンターで動かしたい場合にはNVIDIA対応のVMware Private AI Foundation with NVIDIA上、さらにはRed Hat OpenShift上でも動かすことが可能になる。

OmniverseがApple Vision Proに対応、デジタルツインを利用可能に。ヒューマノイド向けの開発キットも

Apple Vision Proを利用してOmniverseのデジタルツイン環境を活用できるようになる

 NVIDIAはいわゆるデジタルツインと呼ばれる、現実とバーチャルの複合環境を実現する開発プラットフォーム「Omniverse」を提供しており、クラウドベースやローカルにあるNVIDIA RTX GPUとの組み合わせでデジタルツインのアプリケーションを実現している。今回、そのOmniverseのクラウド版「Omniverse Cloud」にAPI経由でアクセスする「Omniverse Cloud API」を発表し、同社のデジタルツインでのパートナー企業となる独シーメンス、米ケイデンス、仏ダッソーシステムズが採用したことを明らかにした。

 また、そうしたOmniverse CloudをAppleの空間コンピューティング向けデバイス「Apple Vision Pro」にOpenUSD経由で対応させることを明らかにした。これにより、Omniverse Cloudを利用している大企業は、企業がOmniverse向けに開発したデジタルツインのアプリケーションを、NVIDIA GDN(Graphics Delivery Network)を使ってクラウドにあるRTX GPUでレンダリングしながら、Apple Vision Pro上でコンテンツが再生できる。

 たとえば、自動車メーカーが自動車の開発を日米の2拠点で行なっている場合、米国側の拠点で開発した車両デザインを、日本の拠点にあるApple Vision Proを利用して再生して、実際の自動車を目の前に作業している感覚で動作を確認するといった使い方が可能になる。

NVIDIAの生成AIソフトウェア環境がヒューマノイドロボット向けに提供される

 ほかにも、同社がIssac Robotics Platform(以下Issac、アイザック)と呼ぶ、AIが活用できるロボット向けの開発プラットフォームをアップデートし、ヒューマノイド(人間の形をしたロボット)の実現を目指すためのファウンデーションモデル「Project GR00T Foundation Model」(以下Project GR00T)を提供開始すると明らかにした。

 Project GR00Tは、生成AIにより実現されているLLMやそのほかのファウンデーションモデルのうち、ヒューマノイドを設計するのに必要なモデルを集めたもので、それを1つのセットとして提供することで、ヒューマノイド開発者のソフトウェア開発を容易にする。それによりロボット開発者は、ハードウェアの設計などそれ以外の開発に注力できるようになり、ヒューマノイドの開発の進展が期待できるという。