ニュース
NVIDIAのAI向けハード/ソフトがMicrosoft Azureに採用
2023年11月16日 01:00
米NVIDIAは、11月15日(現地時間)から開催されているMicrosoftの年次イベント「Ignite 2023」に合わせて報道発表を行ない、同社のハードウェアとソフトウェアの両方がMicrosoftのパブリッククラウドサービス「Azure」のサービスとして提供されることを明らかにした。
H100 NVLやDGX A100をクラウド経由で提供し、Azureの生成AIのプラットフォームを拡充
まず、「H100 NVL」を搭載したAzureインスタンスとして「NC 100 v5」がプレビューとして提供開始されたことを明らかにした。H100 NVLは、H100の拡張カードをPCI Expressのブリッジコネクタにより、2枚を1つのカードとした製品で、主に推論向けとして投入されたものとなる。
また、先日発表したばかりのHBM3eを備えた「H200 GPU」を搭載したインスタンスも、来年(2024年)に提供される予定も明らかにされている。
さらに、NVIDIAは3月に行なったGTCの中で、DGXのクラウド版として「DGX Cloud」という構想を明らかにしていたが、今後「Microsoft Azure Marketplace」においてホストサービスとして提供される。
これはサービスの運営やサポートはNVIDIAが行ない、販売などをAzureが行なう形のクラウドサービスとなる。今回提供されるのはAmpereベースの「DGX A100」で、A100 GPUが8基搭載されたDGXをクラウド経由で利用することができる。このため、ソフトウェアの開発環境などはNVIDIA AIなど既存のものがそのまま利用可能で、NVIDIAのAI専門家にアクセスしてサポートを受けることが可能になっているなど、物理的なDGXを購入したのと同じような開発環境やサポート環境を活用することができる。
メタバースの開発環境となるOmniverseに関しても、Azureでクラウドサービスとして利用することが可能になり、自社のデータセンターにOmniverseのサーバーを置いたのと同じようにAzure経由でOmniverseを利用することが可能になる。
NVIDIA GPUに最適化されたファウンデーションモデルの無償提供をAzure上でも
さらに、今回NVIDIAはMicrosoft Azureとソフトウェア面での協業を強化する。具体的にはNVIDIAがオープンソースの生成AIファウンデーションモデル(ある程度学習済みのAIモデル)として提供している「NEMOTRON-3 8B」、Facebookの「Llama2」、stability.aiの「Stable Diffusion XL」などを、Azureの顧客が利用できるようにする。
それらは標準でNVIDIAのGPU向けに最適化が済んでおり、Azureの顧客がより簡単に生成AIを構築できるようなソフトウェア環境を提供する。ファウンデーションモデルはいずれもオープンソースで利用料金などはかからない。NVIDIAとしては、そうしたファウンデーションモデルを提供することで、Azure上でGPUの利用を促す狙いがある。
また、「NVIDIA AI Foundry Service」と呼ばれる、エンタープライズが自社のデータやモデルなどをファウンデーションモデルに組み込むのを容易にする仕組みを、Azure上でも提供する。これにより、Azureの顧客が、Azureのインフラを活用して生成AIを構築し、サービスとして自社の顧客に提供することなどが容易になる。