ニュース

SUPERや60は出なかったが、ソフトの力でこれだけスゴくなったGeForce RTX

DLSS 4.5

 NVIDIAは1月22日、都内で記者説明会を開催し、CES 2026で発表された内容について、いくつかのトピックをピックアップして紹介を行なった。

 CES 2026でNVIDIAは、コンシューマ向けGeForceの新製品を発表しなかったのだが、代わりに第2世代Transformerモデルを採用した超解像技術「DLSS 4.5」などを発表し、ソフトウェアの力を借りて性能向上や画質改善を図っている。

DLSS 4.5

 発表会でテクニカルマーケティングマネージャーの澤井理紀氏はまず、DLSS技術について紹介した。超解像/マルチフレーム補完技術の「DLSS 4」はローンチ当初、採用ゲームタイトルは75タイトルだったのだが、約1年を経て、250タイトルにまで増加したことをアピール。また、2026年にもすでに4タイトルが採用をうたっている。

250タイトルがDLSS 4対応
2026年のビッグタイトルもサポート

 そのメジャーアップデートとなる4.5では、新たに第2世代Transformerモデルを採用。GeForce RTX 40/50シリーズでサポートされているFP8フォーマットにより、これらのGPUでは実行の高速化が図れるのだという。また、トレーニングセットを強化し、コンテキスト認識の強化、よりスマートなピクセルサンプリングにより、時間的安定性の向上、ゴーストの低減、より滑らかなエッジを実現できたとしている。

第2世代Transformerモデルでは画質が大きく改善。GeForce RTX 40/50シリーズではFP8により高速化も

 また、GeForce RTX 50シリーズでは、中間5フレームまで生成できるようになったMFG 6xをサポートし、さらにゲームをスムーズ化した。また、モニターのリフレッシュレートに合わせてターゲットを設定し、中間生成フレームを動的に変化させる「ダイナミック マルチフレーム生成」もサポートし、スムーズさと画質の両立を実現したとしている。

 なお、第2世代TransformerモデルはすでにすべてのGeForce RTXで利用可能で、MFG 6xおよびダイナミック マルチフレーム生成は2026年春に利用可能になる見込み。

ダイナミック マルチフレーム生成機能
生成フレームが増えるため性能が向上
MFG 6xより多くのタイトルが4K/240Hzでもパストレーシングが可能だ
提供時期
DLSS 4(左)とDLSS 4.5(右)の画質比較デモ。火の粉の舞い上がり方がより派手になっている
MFG 6xによりフレームレートも向上する

AIの性能改善

 続いてはAI周りの進化について語られた。近年はローカルPCで実行するLLMの進化により、その利用者数も大幅に増えているが、1月に提供するアップデートにより、Llama.cpp、Ollama、LM Studioなどで性能は1.3~1.4倍向上するという。

 また、画像生成AIの筆頭であるComfy UIについては、コミュニティと協業し、新たにNVFP4のサポートを追加することで、「FLUX.1」では2.5倍、「FLUX.2」では3.7倍、「Qwen Image」では4.6倍、性能向上できるとしている。

LLMやComfy UIでの性能向上

 なお、NVFP4およびFP8の対応によりモデルのサイズを最大60%削減可能で、これまでデータセンターのGPUでしか実行できなかったようなモデルがローカルでもVRAMに収まるサイズとなり、動作するようになっている。システムメモリへのオフロード機能も最適化されているため、性能低下を抑えられる。

NVFP4とFP8の対応により、モデルのサイズを最大60%削減できる

生成AIが実現する次世代の効率的なワークフロー

 発表会では、新機能ではないものの、生成AIを使ったさまざまなワークフローや業務の進化についてもデモがなされた。

 2026年に入ってからホットな生成AIといえば、動画生成の「LTX-2」だが、こちらもGeForce RTX上で動作可能。そして2月には「RTX Video」をComfy UI向けに提供し、720pの動画を高速で4Kビデオにアップスケールできるようにする。ちなみに、10秒の4Kビデオを生成するのに、従来のBF16フォーマットでの動画生成とほかのアップスケーラーでは15分かかっていたが、NVFP8とPyTorch-CUDAでの動画生成とRTX Videoでは3分に短縮できるという。

2026年に入ってから人気が出てきた動画生成AIのLTX-2
RTX Videoによる4Kアップスケーリング機能
従来のワークフローと比較して、RTX Videoでは時間を大幅に短縮できる

 3D動画の制作フローも、NVIDIA GPUと生成AIによって大きく変化しそうだ。たとえばQwen SLMを用いて、テキストで記述したオブジェクトをTrellis 3D Generatorで3Dオブジェクトとして生成、それをBlenderに配置し、それをComfy UIのワークフローに統合。FLUX画像生成を利用して、動画の1番目のフレームと終わりのフレームを出力し、さらにLTX-2でその2つのフレームの間のものを生成する……といったことが可能になる。

テキストから3Dモデルを生成、そこから開始と終了のフレームだけ画像生成、その間の動画も生成する次世代のワークフロー
実際のComfy UIの画面。すでにComfy UIではBlenderと接続することが可能だ
Blenderの画面

 ビデオ制作においてもう1つの課題が、大量の素材の検索だが、これは現在ベータ版を提供している「Nexa Hyperlink」が解決する。これはPCに保存されているビデオを自動でインデックス化し、ビデオ内に映っているオブジェクトや発言、動きなどをテキストで検索できるようにするものとなっている。

Nexa Hyperlinkによるビデオの検索。ビデオ内に出てくるオブジェクト、発言、動きなどを検索可能だ
実際にジェンスン・フアン氏とヒューマノイドロボットというキーワードでビデオを検索すると、それが含まれているビデオが検索され、その部分の頭出しもしてくれる

 最後のデモが、Blackwell GPUをベースとした“卓上スパコン”の「DGX Spark」。澤井氏によれば、ローンチ以降最適化を継続的に進めており、投入当初比較して2倍以上性能の向上を実現した処理もあるのだという。また、同社は「Playbook」を公開しており、推論やファインチューニング、データサイエンス、ツール、ユースケースなどをまとめて紹介することで、ユーザーの可能性を広げ、スムーズに業務に取り入れられるようにしているとした。

DGX Sparkローンチ当初の性能と現在の性能の比較
Playbookを公開し、手順に従っていけばさまざまな活用が可能だ
DGX Sparkの実機
DGX Sparkの音声チャットボットのデモ。声で話しかけて声で応答が得られる
カメラを介してホワイトボードの内容を読むといったことも可能
そのホワイトボードの内容をマークダウン形式で出力できる