ニュース

いま、生成AIでNVIDIA GPUが引っ張りだこなワケ

生成AIの登場

 このところChatGPTやStable Diffusionといった「生成AI」が話題となっているが、それを支えている基幹ハードウェアは言うまでもなくGPUである。そして生成AIで多く採用されているのがNVIDIAのGPUだ。NVIDIAは19日に記者向け説明会を開催し、生成AIとNVIDIAが提供するGPU、およびそれをベースとしたプラットフォームの関係について、同社テクニカル マーケティング マネージャーの澤井理紀氏が解説を行なった。

 生成AIもAI、すなわち人工知能の一種である。「学習」してデータを「分析」、結果を「予測」すること、この3つのステップが人工知能の根幹部分を成す部分であり、生成AIとて変わるものではないが、それぞれのステップで進化を重ねることで「生成AI」が生まれた。

 たとえば、これまで「機械学習(マシンラーニング)」と呼ばれていたものは単純にデータから統計と数学アルゴリズムを用いて結果を予測するものであった。それが「ディープラーニング(深層学習)」では、分析の段階でアルゴリズムではなくニューラルネットワークを用いて予測することで実現されてきた。

 一方生成AIでは、これまでにない大規模なデータセットを用いて学習し、ニューラルネットワークで分析、そしてプロンプトで入力された文脈を理解することで、単なる予測のみならず「新しいコンテンツ」、しかも「完全にオリジナルの成果物」を生成することから、生成AIと呼ばれるようになった。

 その生成AIの中心となるのが「基盤モデル」と呼ばれるもので、もっとも有名になったのがChatGPTのような大規模言語モデル(LLM)だ。基盤モデルで採用されているアーキテクチャが、Googleが提唱した「Transformer」モデルであり、エンコーダ部で言語を理解して、デコーダで言語を生成していく。

生成AIはAIの一部である
オリジナルの成果物を生成するのが生成AI
大規模言語モデル
Transformerモデル

 Transformerがこれまでのディープラーニング手法と大きく異なるのは、入力データの各部分の重要度を差分的に重み付けをするセルフアテンションメカニズム。LLMではこのTransformerを採用することで、従来の自然言語処理とは異なり、データの手動ラベル付けが不要で、パラメータが数十億から数兆へと向上、モデルの汎用性が向上し、並列処理も可能になった。

 ただ、“汎用的”となったことで、企業が個別に持つビジネスの問題の解決にはP-Tuningと呼ばれるカスタマイズが必要となる。たとえばBloombergが開発した「BloombergGPT」は金融データの広範なアーカイブを集めることで、金融に関する固有の問題の解決能力を高めている。

 基盤モデルは汎用的にさまざまなタスクを処理できるが、その構築には膨大なトレーニングデータ、トレーニング/推論用の大規模計算資源、深い専門知識、大規模インフラの上で構築する複雑なアルゴリズムが必要だ。一方基盤モデルの使用における課題としては、先に述べた用な企業個別の知識が含まれていない点、トレーニングの時点で知識が固定されている点(新しいことを知らない)、幻覚によって望ましくない情報を提供したりする点、偏見と有害情報を出力してしまう点などが挙げられる。

 こうした生成AIの構築と運用における課題を解決しつつ支援していくのが、NVIDIAの各種ソリューション、ということになる。

生成AIの利用方法
生成AI開発の課題

NVIDIAは生成AIをどう支えていくのか

 まずは膨大なデータと大規模計算資源だが、ハードウェアやクラウドサービスの提供で解決を見出す。たとえば最新のH100 TensorコアGPUは、PCI Expressの拡張カード形態からHGX H100/DGX H100のようなシステムの形態、そしてDGX SuperPODというデータセンター全体のソリューションを提供しており、さまざまな規模で運用可能となる。

 また、AIトレーニングサービスとして「DGX Cloud」を提供しており、ソフトウェアやスケール可能なマルチノード、展開を支援するAIエキスパートなどを予測可能な価格で提供している。

 さらに、CPU/GPU間のデータのやりとりにかかるエネルギーを削減できる「GH200 Grace Hopper Superchip」、スケールする際に高速かつ大容量メモリを実現する「DGX GH200 NVLink」などを提供。加えて、ビジュアルとAIの両方が必要なユーザーには「L40」、大規模言語モデル処理向けにはNVLinkを用いて188GBのHBM3を実現した「H100 NVL」を用意している。

生成AI用のさまざまなハードウェアソリューション

 こうしたハードウェア面のみならず、ソフトウェア面では「NVIDIA AI Enterprise」という4,000以上のソフトウェアパッケージを提供。中でも「NeMoフレームワーク」は、生成AIモデルの構築からカスタマイズ、展開まで可能なエンドツーエンドのものとなっており、基盤モデル構築の際の課題を解決し、トレーニングの高速化を実現するという。

 加えて、クラウドサービスも提供し、大規模言語モデル構築のための「NeMo」、画像生成AIのための「Picasso」、製薬のための「BioNemo」も、順次展開していく。

NeMoフレームワーク
有害コンテンツ、幻覚などを防ぐNeMo Guardrails
さまざまなクラウドサービス
大規模言語モデル向けのNeMoサービス
生成基盤モデル
画像生成AI向けのPicasso
創薬向けのBioNeMoサービス

NVIDIA生成AI Day 2023 Summerも開催へ

 2023年、コンピュータ業界はChatGPTをはじめとした生成AIから話題がスタートしたと言っても過言ではない。生成AIはGPUなしには生まれなかったというのは周知の通りなのだが、なぜそれが他社のGPUではなくNVIDIA一強なのか、疑問に思う人も少なくないだろう。

 澤井氏によれば「もちろんGPU自体の高い性能もあるが、大規模言語モデル(LLM)を構築するための高速ネットワーク技術、そして大規模な環境でAIをトレーニングしたり推論したりする際のソフトウェアもある。フルスタックで提供しているところが強みになっている」とのこと。つまり、上で説明されたすべてが、NVIDIA GPUがこれだけ広く使われている理由となっているわけだ。

 ちなみにこれはあくまでも“現状”そうなっているのであって、未来もそうなるとは限らない。AIプロセッサ企業TenstorrentのJim Keller CEOは、「近々イノベーションにより新しい大規模言語モデル誕生し、より大きなコンテキストでより小さなメモリフットプリントを実現できる」と予測しており、実際にNECが7月に「標準的GPU 1基で動く日本語LLM」を開発するなど、新たな動きが始まっている。

 そういう意味でも、生成AIとNVIDIAの今後の動向に、ますます目が離せないだろう。NVIDIAは7月28日に、日本で「NVIDIA生成AI Day 2023 Summer」なるイベントを開催予定だ。