ニュース
NVIDIA、Blackwell採用のAIデータセンター向け「GB200 NVL2 Platform」
2024年6月2日 21:30
NVIDIAは、Blackwell採用の新製品となる「NVIDIA GB200 NVL2 Platform」など、エンタープライズや産業向けの新たな製品やサービスについて発表した。
Blackwell採用の「NVIDIA GB200 NVL2 Platform」
同社は3月に、高いAI性能と電力効率を特徴とする最新GPUアーキテクチャ「Blackwell」を発表したが、そのBlackwell採用の新製品として「NVIDIA GB200 NVL2 Platform」が登場。CPUやGPU、DPUなどをモジュラー配置するNVIDIA MGX規格を採用しており、既存のデータセンターにもシームレスに統合できるとしている。
144基のGrace CPUコア(Armベース)、384GBのHBM3eメモリなどを搭載し、単体で40PFLOPSのAI性能を発揮し、一般的なCPUワークロードでは約18倍(対x86プロセッサ)、Llama 3の推論では約5倍(対HGX H100)の性能を実現している。メインストリームの大規模言語モデル(LLM)推論やデータ処理に好適としている。
また、AIデータセンター向け展開しているEthernetスイッチである「NVIDIA Spectrum-X Platform」については、採用製品を投入するパートナーが増えていると説明。業界からの高い需要に応えるため、Spectrum-X Platformの新製品を今後毎年投入していく予定であると明らかにした。
AIアプリ開発を効率化する「NVIDIA NIM」が正式提供開始
AI推論アプリケーションをコンテナ形式で提供するマイクロサービス「NVIDIA NIM」の正式提供が始まった。商用ソフトウェアパッケージであるNVIDIA AI Enterpriseの一部としても利用可能となっている。あわせて、NVIDIA Developer Programに参加しているすべての開発者については、NIMに無料でアクセスできると発表した。
3月のGTCで発表されたサービスで、非常に複雑で種類が多いAIモデルをマイクロサービスとしてAPIで実行可能にし、AIアプリケーションの構築を効率化する。クラウドやデータセンター、ワークステーションなど、コンテナをホストできる環境であればどこでも導入できる。
加えて、モデルを効率的に使うための最適化も施されており、同じハードウェアであっても、NIMを利用するとより高速に実行できるのも特徴。たとえばH100 SXMでLlama-3-8B-Instructを実行した場合、スループットが約3倍改善するという。
エッジAI向け製品のアップデートも
そのほか産業用分野のアップデートとして、エッジAIプラットフォームのNVIDIA IGX向けに、エンタープライズ向けソフトウェアのNVIDIA AI Enterprise-IGXを提供開始。NVIDIA Holoscanも含まれており、医療、産業、科学計算などでもエッジAIソリューションが実現可能となる。
あわせて、NVIDIA IGX Orin 700(旧IGX Boardkit)では、NVIDIA RTX 6000 Ada GPUが新たに搭載できるようになり、新製品として、柔軟なキャリアボード設計とカスタム構成が可能だというIGX Orin 500も加わる。
また、BYD ElecrtonicsやSiemensなどロボット業界大手でNVIDIA Isaacが採用されたことや、FoxconnなどでAIとOmniverseを組み合わせたデジタルツインが活用されたことなども紹介された。