ニュース

Intel、GPUが非力なマシンでもメタバースが利用できる「Project Endgame」

IntelがVisionでデモを行なった「Project Endgame」

 Intelは、5月10日~5月11日(現地時間、日本時間5月10日~5月12日)に同社のプライベートイベントとなる「Intel Vision」(インテル・ビジョン)をアメリカ合衆国テキサス州ダラスフォートワース空港近くの「Marriott Gaylord Texan & Convention Center」で開催している。

 この中でIntelは、同社が2月に概要だけを発表した「Project Endgame」のデモを行なった。Intel 上級副社長 兼 AXG事業本部 事業本部長ラジャ・コドリ氏によれば「Project Endgameはアーキテクチャで、クライアントからクラウドにあるGPUを低遅延で利用する仕組みを提供する。あくまでアーキテクチャであるため、IntelのGPUでないと使えないなどは考えておらず、他社のGPUも利用することが可能なようにオープンなアーキテクチャになっている。サービスはサードパーティが提供していき、既に中国のテンセントやアリババと話を進めている」というもの。

 Project EndgameはクラウドにあるGPUをさまざまなデバイス(PCだけでなく、スマートフォンやタブレットなどを含む)から利用するための仕掛けで、その上でどのようなビジネス(例えばクラウドゲーミングなど)を行なうかはサードパーティに任せるとコドリ氏は説明した。

ACM-G10が1チップの150W版、ACM-G11が2チップの75W版という2つが用意されるArctic Sound M

Arctic Sound Mの150W版

 今回IntelはVisionの開催に合わせて、クライアントPC向けのArc Aシリーズと同じダイを利用して、クラウド向けのGPUとして製品「Arctic Sound M」(開発コードネーム)で知られる製品を、第3四半期から出荷を開始する計画であることを明らかにした。

 IntelによればArctic Sound Mは開発コードネームで、製品名は「Intel data center GPU」と呼ぶだけで、特別なブランド名などは今のところない。このため、Intelの関係者も(本来製品の発表後にはコードネームは使わないのがIntelの内規なのだが)Arctic Sound Mというコードネームで説明していた。

 上記の発表記事でもお伝えしたように、Arctic Sound MではTDPが150WとTDPが75Wの2つの製品が用意されており、150Wの高性能の製品にはXeコアが32コア構成になっている大きいサイズのダイ「ACM-G10」が採用されており、高密度を実現する75W製品ではXeコアが8コアの「ACM-G11」が2チップボード上に搭載されている形になっているとIntelは説明した。

 150Wが1チップで、75Wが2チップなのはターゲットとなるアプリケーションの違いで、32コアのACM-G10が1チップの150W版はGPUの仮想化などにより多くのユーザーを格納することが意識されており、8コアのACM-G11が2チップの75W版では内蔵されているAV1エンコーダーなどが倍になることを活かしてストリーミングの性能を上げるなどと考えられているからだとIntelは説明した。

ゲームだけでなくメタバースなどさまざまなアプリケーションでクラウドGPUを利用するための仕組み「Project Endgame」

Intel 上級副社長 兼 AXG事業本部 事業本部長ラジャ・コドリ氏

 今回Intelは、そうしたArctic Sound-MをクラウドGPUとして、「Project Endgame」のデモを行なった。ラジャ・コドリ氏によれば「Project Endgameはアーキテクチャで、クライアントからクラウドにあるGPUを低遅延で利用する仕組みを提供する。あくまでアーキテクチャであるため、IntelのGPUでないと使えないなどは考えておらず、他社のGPUも利用することが可能なようにオープンなアーキテクチャになっている」とのこと。

 要するにクラウドにあるGPUを、PCやスマートフォン、タブレットなどから効率よく利用するソフトウェアレイヤーなどのアーキテクチャの部分を定義しているのがProject Endgameということになる。

Unreal Engine 5のデモプログラムを起動する前にProject Endgameが利用できるアプリを起動すると、Unreal Engineの表示がスムーズになった
Project Endgameのデモ、最初はカクカクしていたが、Project Endgameを有効にすると、クラウドGPUの処理能力も使えるようになり、スムーズな描画が可能になった

 今回行なったデモは2つ。1つは基調講演の中で、非力なGPUのノートPCでUnreal Engine 5上で動いているフォトリアルなメタバースのアプリを利用すると、カクカクしてしまいスムーズに再生できなかったものが、Project Endgameを有効にするとスムーズに動けるようになるというもの。現時点でメタバースのアプリを利用するには、強力な単体GPUが必要で、ゲーミングPCのような大型の筐体で十分な熱設計を施されているようなノートPCやデスクトップPCが必要になる。

 しかし、Project Endgameを利用すると、クライアントPCやタブレットなどで性能が追い付かない場合にはクラウドにあるGPUの演算性能も利用することが可能になり、スムーズに再生することができるようになるのだ。

Project Endgameがバックエンドとして利用されているクラウドゲーミングのデモ、Androidタブレットなどからアクセスすることが可能になる

 また、Visionの展示会場では、Arctic Sound-Mの150W版GPUをクラウドに置き、Androidタブレットからクラウドゲーミングを利用するというデモが行なわれた。そうしたクラウドゲーミングを実現する仕組みとしてProject Endgameが利用されていた。

 コドリ氏は「我々はProject Endgameという仕組みを提供するが、それで直接ビジネスをするわけではない。そうしたサービスはサードパーティが提供することになり、既に中国のテンセントやアリババと話をしている」と述べ、競合となるNVIDIAのように、自社でクラウドゲーミングサービス(GeForce Now)そのものをIntelが提供する計画はなく、あくまでサードパーティが主体になってクラウドゲーミングやそのほかのサービス(例えばクラウドメタバースのようなサービス)を提供していくことになると説明した。

 Intelによれば、Project Endgameは年末までにベータテスターが開始される予定とのことで、今後の展開にも要注目と言えるだろう。