ニュース

生成AIはiPhone登場時並みのインパクトがありデジタル格差を解消する。NVIDIA ジェンスン・フアンCEO

NVIDIAのL4を手に持ち紹介するジェンスン・フアンCEO(写真提供:NVIDIA)

 NVIDIAは3月21日(現地時間、日本時間3月22日)より、同社の年次イベント「GTC」をオンラインで開催している。同社CEO ジェンスン・フアン氏はそのGTCの基調講演に登壇し、今話題の生成AIなどに向けた各種ソリューションを発表している。

 米国時間で3月21日の夕方(現地時間、日本時間3月22日午前)には、フアン氏の記者向けの質疑応答がこちらもオンラインで行なわれ、フアン氏がGTCで発表された内容などに関しての記者からの質問に答えた。そうした応答の中から特定地域に限定された質問などを取り除き、主に生成AI関連の質問とその回答についてお伝えしていきたい。

 生成AIについて問われたフアン氏は「まさに今のAIは転換点を迎えており、生成AIのブームは、携帯電話にiPhoneが登場した頃と同じような状況にあると言える。今後ChatGPTのような生成AIを利用したチャットボットは、プログラムを書けない人でもコンピュータに自分の言葉で話しかけるだけでさまざまなことを実行させることができるようになり、本当の意味でのコンピュータの大衆化が起きる」と述べ、生成AIが人間とコンピュータのインターフェイスとなり、プログラムを書ける人でもそうでない人でも同じようにコンピュータの恩恵を得て、デジタル格差の解消につながっていくと強調した。

生成AIはiPhoneが登場したときのようなインパクトを産業全体に与え、デジタル格差を解消する

アジア太平洋地域の記者を前に質問に回答するNVIDIA ジェンスン・フアンCEO(写真提供:NVIDIA)

司会 :それではまずフアン氏よりGTCの基調講演の振り返りを

ジェンスン・フアン氏 :4年前(2019年3月)に対面で行なわれたGTCには約8,000人が現地で参加した。オンラインのみで行なわれている今回のGTCでは約25万人が登録して参加してくれている。これは大きな進化だと言える。

 NVIDIAはずっとアクセラレーテッドコンピューティングを標榜してきているが、今は三つの大きな潮流があると考えている。1つ目はさまざまな演算へのデマンドが増えており、それを解決するのがアクセラレーテッドコンピューティングだ。スピードが時間を節約につながり、同時に消費電力とコストの削減につながっている。

 2つ目はChatGPTが見せてくれたような生成AIによるイノベーションが起こっていることだ。我々が提供しているDGXのようなAIスーパーコンピュータを活用することで、LLM(Large Language Model)を利用したブレークスルーが起こっており、AIの推論に大きな注目が集まり始めている。

 今はAIにとってiPhoneモーメント(iPhoneが出始めた頃のような状況)だ(筆者注:iPhoneが出たことでスマートフォンの普及が一挙に進んだ時期のこと)。PCが出て大型コンピュータを駆逐し、インターネットの革命が起き、さらにスマートフォンの革命が起きて、新しい企業やアプリケーションの参入が相次いだ時期とおなじようなものだ。今後人間の言葉をコンピュータが理解できることが現実になる。

 3つ目はデジタライゼーション(デジタル化、日本語で言えばDX)も重要な動向だ。今やすべてがデジタルになりつつあるが、物理的な何かの設計をデジタルで座インすることが当たり前になっている。世界の産業にとってそれが発生している。

Q :データセンターのエネルギー消費の問題が注目を集めている。それについてNVIDIAの考え方について教えてほしい。

フアン氏 :これまでも我々が語ってきた通り、GPUに切り替えて処理することが結果的に消費電力の削減につながるというのが我々の基本的な考え方だ。これまで、データセンター全体の処理能力に占めるAIの割合は小さいものだった。

 これまで我々の業界はムーアの法則に従って電力を増やしてきた。同じ値段で同じ電力であれば、性能が2倍になるというのがムーアの法則の考え方だった。しかし、この5年間はそれがスローダウンして、トランジスタを微細化することで性能を上げていくのが難しくなっている。ムーアの法則は死んだのだ。

 これからはコンピューティングパワーのスループットや消費電力を10倍などの単位で増やしたり減らしたりしていかないといけない。それを実現するのが、我々が推進しているアクセラレーテッドコンピューティングの基本的な考え方だ。新しいソフトウェア・アルゴリズムを利用して、新しいチップを導入することでそれを実現していくのだ。

 それを各産業の領域ごとに実現していくのが我々の基本戦略だ。たとえば、TSMCとは「コンピュテーショナル・リソグラフィー」という取り組みで、半導体プロセスのリソグラフィーの微細化にGPUを利用してシミュレーションすることでデジタルツインを活用して微細化技術の実現を目指していく。そのようにジョブごとに取り組んで行く。

 現在データセンターにはたくさんの電力が供給されている現状で、今後電力を削減していく必要がある。そのために我々のアクセラレーテッドコンピューティングの仕組みを導入することで10倍効率を改善していきたい。

Q :ChatGPTが登場して社会にどのような影響を与えていると思うか?

フアン氏 :GPTの開発者とはよくやりとりをしている。以前行なわれた彼との共同インタビューで彼と話した時には、LLMのスケーリングの有効性に関して話をした。というのも、大規模なモデルを学習させるには非常に多くのパラメータとデータが必要になるからだ。LLMを利用してどのようなことができるのかに関して彼と話したが、非常に楽しかった。

 Transformerモデルでは大量のデータを並列して処理して行く。それが巨大なモデルにスケールアップするのに非常に効率的な仕組みである理由なのだ。Transformerモデルでは多くの情報を処理し、コード化して効率よくニューラルネットワークに突っ込むことが可能になっている。このため、Transformerモデルは非常に効果的で、言語処理だけでなく、さまざまなことを行なうことが可能になる。

 Transformerモデルは多くの言葉を学ぶことが可能だ。英語だけでなく、中国語も韓国語も日本語もさまざまな言葉を学べる。文法や構文などを理解していくことが可能になり、最終的には人間の言葉を利用してコンピュータと対話することが可能になるということだ。

 このことの価値は非常に大きく、今後新しい使い方が生まれると思う。たとえば、このHopper世代GPUではTransformerモデルを利用してさまざまな言語モデルを理解できるようになっている。そしてさまざまな業界でそれを活用すると、プログラミング言語を知らない人でもコンピュータを活用してさまざまな事をさせることが可能になる。誰にでも役立つコンピュータになるということだ。

Q :ChatGPTのような機能はこれからコンピュータの世界をどう変えていくのか?

フアン氏 :この30年そのままだった社会の分断や、デジタル的な分断といったことを解決する良い機会だということだ。これまでのコンピュータはプログラムを知っている人だけが効率よく利用できたが、それは限られた人たちだった。

 しかし、LLMなどによりコンピュータが人間の言葉を理解できる世界では、C言語も、パスカルも、Javaも、Pythonも知っている必要がない。自分の利用している言葉でコンピュータに話しかければコンピュータを利用してさまざまなことを実行できるようになる。つまり、誰もがコンピュータプログラマーになれるということだ。

 これはまさに歴史上初めて起こるコンピュータの大衆化であると私は考えている。すべての社会の階層でそれが起こるので、まさに革命的なことだと考えている。

Q :今のAIはiPhoneモーメントにあると冒頭で言っていたが、過去のAIブームと今のiPhoneモーメントの違いは? また、NVIDIAはそのデマンドに答えることが可能なのか?

フアン氏 :AIブームにはいくつかのチャプター(章)がある。10~12年前に、ディープラーニング/マシンラーニングはアルゴリズムを改良していくことで実用になってきた。この時点ではAIのインフラを作っている段階だった。その後チャプター2としては、AIは人間の知覚を実現しようとやってきた。コンピュータビジョンやファクトリーオートメーションなどさまざまなことがこの段階で起きてきた。

 そして現在は、知覚だけでなく、情報を創出する段階に入った、映画を作り、音楽を作り、戦略を作る……AIがそうして何かを作り出すことがチャプター3になる。AIは共同クリエイターであり、副操縦士であり、パートナーとしてやっていくことになる。より簡単に、価値を作り出せ、生産性が向上していくのだ。

 たとえば、NVIDIAではソフトウェアの開発に多くのソフトウェアエンジニアを雇っているが、彼らの副操縦士役のエンジニアとしてAIを活用しており、今ではソフトウェアエンジニアの生産性は2倍になっている。言うまでもなくソフトウェアエンジニアというのは世界で最も高い給料をもらっているエンジニアなので、その価値がいかほどかはもう説明するまでもないだろう。

 供給に関してだが、需要は非常に強い。ChatGPTのような生成AIがアクセラレーテッドコンピューティングの需要をより強くしているのが現状だ。我々の業界は非常に厳しいと言われている中で、NVIDIAはむしろ供給を増やしているのが現状だ。

ChatGPTの登場により推論向けプロセッサでの転換点を迎えており、学習だけでなく推論の演算でもGPUが使われるようになる

CPUとGPUが1ボードになっているGrace Hopperを手に説明するジェンスン・フアン氏

Q :NVIDIAにはハードウェア部門とソフトウェア部門の両方がある。今後はどちらの方が大きな可能性があると考えているか?

フアン氏 :業界全体のソフトウェアとハードウェアの売上を見ていくと、ソフトウェアの方が圧倒的に大きな市場だ。ハードウェア市場はだいたい数十億ドル程度の市場であるのに対して、ソフトウェアは文字通り桁違いだ。ロボット向けなら数兆ドルの市場だし、製薬の市場も数千億ドルから数兆ドルの市場だ。そうした市場はハードウェア単体の市場よりもはるかに大きく価値がある市場だ。

 我々はそうした市場に向けて副操縦士(コ・パイロット)や従業員を助けるワーカー(コ・ワーカー)になれるAIを提供しようとしている。製薬業界なら共同開発者だし音楽や映画産業なら共同クリエイター(コ・クリエイター)だし、プログラマーなら共同プログラマー(コ・プログラマーだろう)。AIはソフトウェア産業に新しい可能性をもたらすもので、今後さらに大きく発展していくと考えている。

Q :最近NVIDIAが下した決断で最も大きかった決断はなんだと考えているか?

フアン氏 :NVIDIAがクラウドへと舵を切ったことだ。NVIDIAのソフトウェアスタックや、AIスーパーコンピュータのDGXなどをすべてクラウド経由で提供できるようにした。しかも、単にクラウドにしただけでなく、ハイブリッドクラウド(オンプレミスとクラウドをシームレスに利用できるようにすること)、マルチクラウド(複数のクラウド事業者のクラウドを利用できること)になっており、今後クラウド化が加速していくことになるだろう。

 我々の顧客はWebブラウザさえあれば、AIモデルを構築し、学習して、そして推論の環境を彼らの顧客に提供することが可能になる。この決断は非常に大きいもので、実は数年前に決断していたのだが、今回本格的に発表できた。

Q :ChatGPTのようなソリューションはなぜ急速に注目を集めるようになったと思っているか?

フアン氏 :ChatGPTのようなソリューションは、非常に成功し、急速な勢いで成長している。それはなぜかと言えば、誰にでも簡単に使えるからだ。操作マニュアルも必要なく、ただコンピュータに指示を出すだけでよく、質問を投げかけるだけでいいからだ。それは従来プログラマーがプログラムを使ってコンピュータにさせていたいことだ。

 そうしたことを簡単にできるようにしてしまったため、皆驚き、関心をもったのだろう。その意味でChatGPTは完璧なアプリケーションだ。

Q :生成AIは非常に高速に成長しているが、AIにはリスクはなく将来にわたって人間が完全にコントロールできるのか?

フアン氏 :AIのリスクを理解することは我々にとって非常に重要なことだ。AIは非常にパワフルな技術であり、そのこともきちんと理解して使いこなす必要がある。我々はさまざまなテクノロジーに囲まれて生きている。AIの安全性に関しても研究が進んでおり、その成長は非常に早いものがあり、次々と安全を担保するような技術が生まれている。その多くはAIを教育するシステムであり、命令の一種とも言える。それは一種の調整であって、人間からのフィードバックを受けてAIが学んでいくプロセスだ。

 たとえばチャットボットに対してはガードレールのシステムを導入し、その中で常に動作するように設定するのがAIを提供する側の仕事になっている。これは言っていいけど、これは言ってはいけないなどの線を引くという学習をAIにしてもらうということで、従業員に教育プログラムを受けていただくのと同じことだ。それが今生成AIで起きていることで、そうしたことをきちんとやっていけば、非常に良い結果になるだろう。

Q :これまで推論向けのプロセッサに関しては多くをCPUが占めてきた。ChatGPTのような負荷の高いAIアプリケーションの登場はその状況を変えていくと考えるがどうか?

フアン氏 :おっしゃる通り、GPTのようなLLMが推論に対する考え方を基本的に変えていっている。そして生成AIが推論でもGPUの必要性をましているのは間違いない。というのもGPTのようなLLMにせよ、静止画や動画を生成するAIは、より大きなコンピュータの処理能力を必要とするからだ。CPUはそれらを行なうのに正しい選択ではない、そう考えて良い。

 しかし、推論も非常に複雑で、そんなに処理能力を必要としないものから、かなりの処理能力を必要とするものまであり、依然としてCPUが推論では大多数だというのはそこに理由がある。データセンターには既に多くのCPUがインストールされているからだ。

 だが、この状況は変わりつつある。私は推論向けでもこれから非常に強力なGPUへのシフトが起きると考えている。ChatGPTなどの影響で今後はより巨大なモデルを持つLLM、巨大なモデルを持つリコメンデーションシステムなどがGPUの持つ処理能力を必要としていくと考えている。

推論向けGPU「H100 NVL」を手に説明するジェンスン・フアン氏

 たとえば、このH100 NVLに関しては186GBのHBM3メモリを搭載しており、非常に巨大なメモリを利用できる。また、ビデオの処理のようなニーズにはこのL4のようなソリューションが有効だろう。重要なことはそうした異なるニーズであっても、(CUDAという)1つのアーキテクチャでソフトウェアが作られていることだ。

 そうした推論向けの半導体市場に関しても転換点を迎えており、変わっていっている。推論でもアクセラレーテッドコンピューティングが有効だ、これが私の答えだ。