笠原一輝のユビキタス情報局

Core Ultraで2024年のPC業界のトレンドとなる「AI PC」、その現在地と未来

Intelが発表したCore Ultra、NPUを内蔵しており、AI PCに対応する

 Intelは12月14日(米国時間)に、開発コードネームMeteor Lakeで開発してきた最新SoCを、「Core Ultra」として発表し、OEMメーカーから搭載製品が出荷開始されたことを明らかにした。

 このCore Ultraには、新しいタイプのプロセッサとしてNPU(Neural Processing Unit)が搭載されており、来年(2024年)のノートPCのトレンドになると予想されている“AI PC”(AIの処理をローカル側で行なうPCのこと)を実現する最後のピースとして注目を集めている。

 こうしたNPUはIntel製品に最初に搭載されたわけではなく、既にQualcommやAMDの製品には搭載されて出荷済み。しかしPC市場で高いシェアを誇るIntelのメインストリーム向け製品に実装されたことで、来年以降のノートPCへのNPU実装率は急速に上がっていくと考えられている。

 本記事ではそうしたNPUを搭載したAI PCの現状と、今後の展開について解説していきたい。

そもそもAI PCの定義とは何か

 AIの演算は大きく分けて2つのフェーズに分かれている。1つは(基本的には)クラウド側で行なわれる学習(ラーニング)で、プログラマーが作成したモデル(GPTやDall-Eなどが生成AI系ではメジャーで1度は耳にしたことがあるだろう)に対してデータを読み込ませて、ネコの写真が来た時にネコ、イヌの写真が来た時にイヌと覚えさせていくことを指す。

 そしてもう1つが、推論(インファレンス)で、その学習済みのモデルがネコの写真が来た時にネコ、イヌの写真が来た時にイヌと判別することを指している。ユーザーがAIアプリケーションを活用する時には、主に後者の推論の機能を利用する。

 この推論も大きく分けると2つの手法が考えられる。1つがクラウド側のプロセッサで行なわれる推論処理で、データを1度クラウドのアップロードした後、推論処理が行なわれ、エッジ(PC的な言い方をするならクライアント)に対して結果を返すものだ。

 それに対して「エッジAI」ないしは「オンデバイスAI」などと呼ばれているのが、エッジ側のデバイス上の何らかのプロセッサで処理が行なわれるもの。PC業界が“AI PC”と言っているのは、この後者の「エッジデバイス上のプロセッサで処理が行なわれるAI推論」が行なえるPCで、かつその推論処理を専用に行なうNPU(Neural Processing Unit)を搭載している製品を意味している。

 ただ、これまでも後者のエッジAIやオンデバイスAIの推論処理は行なわれてこなかったのかと言えば、そうではない。というのも、AI PCの処理を「エッジデバイス上の何らかのプロセッサで処理されるAI推論」と定義していることからも分かるように、その処理はNPUだけで行なわれるものではないからだ。

 具体的に言えば、CPUやGPUで処理されるエッジAIのアプリケーションはこれまでも存在していた。たとえば、Adobe Creative Cloudのアプリケーション、PhotoshopのAI処理などがその典型例だが、CPUやGPUに最適化された処理が行なわれており、その意味でのAI PCというのであれば、既にほとんどがそうであると言える。

 しかし、今回PC業界が「AI PC」と謳われているのは、NPUを搭載しているという条件が付いた狭義の意味でのAI PC。マーケティング用語で定義すると「NPUを搭載してクライアントPCだけでAI推論処理を行なえるPC」という意味になる。あくまでマーケティングのための用語に過ぎないので、誰かがスペックなどは規定していない。その意味で、非常に曖昧な用語であることも一面否定できない。

NPUとは、CPUやGPUよりも高い電力効率でAI推論処理できる専用プロセッサのこと

IntelがCore Ultraに内蔵させているNPU

 今回IntelがCore Ultraで導入したNPUは、従来はCPUやGPUで行なわれていたAI推論の処理を専門に行なうプロセッサになる。NPUの特徴は、AI推論処理をCPUやGPUに比べて圧倒的に高い電力効率で実行できることにある。

Stable Diffusion v1.5で推論処理を行なった場合の性能と消費電力。CPUだけで行なった場合とNPUだけ行なった場合を比較すると性能は倍になるのに、電力は1/4になる。電力効率は7.8倍となる

 Intelが公開した資料によれば、AI推論処理(Stable Diffusion v1.5)を全てCPUで行なう場合には43.3秒の時間がかかり、かつCPUの消費電力は40Wに達する。それに対して、NPUだけで行なう場合には20.7秒と半分以下の時間で終わり、かつ10Wの消費電力で済んでしまう。このため、電力効率は実に7.8倍という計算になる。

 このように高い電力効率でAI処理を行なえることが最大の特徴で、たとえばバッテリでPCを使っているときには、より少ない消費電力でより高速に処理することが可能になるため、同じ処理をさせてもバッテリ駆動時間への影響はCPUだけの場合に比べて少なくなる(つまりバッテリ駆動時間が延びるということだ)。

NPUが電力効率に優れている理由の1つにローカルメモリにデータを展開して演算できる点が挙げられる

 NPUがこうした低消費電力で動く理由の1つは、IntelのNPUが元々低消費電力動作を目指したNPUとして開発されたという歴史がある。IntelのNPUは、2016年に買収した半導体開発企業「Movidius」の技術がベースになっている。Movidiusは1Wなどの少ない消費電力で画像認識ができる「VPU」を開発しており、今回Core Ultraに内蔵されているNPUはそれがベースになって発展したモノだ。

 そうしたIntelのNPUは、NPUの内部にローカルメモリを持っており、それを活用してAI推論に適した演算を大量にできる。外部のメモリへのアクセスを必要最小限にすることで、無駄な電力を消費しないことが最大の特徴だ。

現状は3メーカーが横並びだが、来年は競争増す

Qualcommが来年の半ばまでに投入を計画しているSnapdragon X Elite

 そうしたIntelがCore Ultraに搭載したNPUだが、Windows向けのSoCとしてNPU(ないしはそれに相当したもの)を搭載するメーカーとしては最後発になる。最初に搭載したのは、Armプロセッサを採用するQualcommで、同社は既に以前から「Hexagon」という名称のNPUを搭載してきた(世代によってはDSPと呼ばれているが、動作としてはNPU)。

 現在製品として展開されている「Snapdragon 8cx Gen 3」でもHexagonは搭載されており、今年(2023年)の10月に発表し、来年半ばに登場する予定の「Qualcomm Snapdragon X Elite」ではさらに性能が強化されたものが実装される。

本年1月のCESでAMDが発表したRyzen 7040シリーズ、Ryzen 8040シリーズも外形は同じ

 AMDも同様に「Ryzen AI」というNPUをRyzen 7040シリーズ(開発コードネーム:Phoenix)に実装している。Ryzen 7040に搭載されているRyzen AIは、元々はAMDが買収したXilinx(ザイリンクス、現在はAMDのAECG:アダプティブ・エンベデッド・コンピューティング事業部となっている)が、ZynqなどのSoCに搭載していたNPU(XDNA)を転用したものだ。

 既に3社が発表しているNPUの性能、そしてCPUやGPUを同時に使える性能を見ると、ほぼ横並びであることが分かる。QualcommのSnapdragon 8cx Gen 3のNPU単体での性能は明らかになっていないが、NPU+CPU+GPU総合性能では29~34TOPS(TOPSとはTera Operations Per Secondの略で、1秒間に実行できる命令数のこと、1TOPSは1秒間に1テラ命令を実行できるという意味)と大きな違いがないことが分かる。

【表1】現在リリースされている製品でのNPUのTOPS比較
AMD Ryzen 7040Intel Core UltraQualcomm Snapdragon 8cx Gen 3
NPU単体10TOPS11TOPS?
NPU+CPU+GPU33TOPS34TOPS29TOPS

 しかし、AMDとQualcommは既に次世代、次々世代製品の計画を明らかにしており、それを考慮に入れるとだいぶ様相は変わってくる。

【表2】2024年に投入が予告されている次世代、次々世代製品におけるTOPS比較
AMD Ryzen 8040AMD Strix PointIntel Arrow Lake/Lunar LakeQualcomm Snapdragon X Elite
NPU単体16TOPS30~48TOPS?45TOPS
NPU+CPU+GPU39TOPS??75TOPS

 AMDは2024年の第1四半期に投入するRyzen 8040シリーズ(開発コードネーム:Hawk Point、Phoenixのリフレッシュ版)において、CPU、GPU、NPUの動作クロックを引き上げ、IntelのCore Ultraをすぐに上回ってくる見通しだ。それによりRyzen 7040シリーズでは10TOPSだったNPUの性能を16TOPSに引き上げる。

 さらに、来年投入する完全に新アーキテクチャの「Strix Point」では、アーキテクチャも含めて改良された「XDNA2」という第2世代の内蔵NPUを投入し、性能を現行製品の3倍とする。Phoenixベースで計算すると30TOPS、Hawk Pointをベースで計算すると48TOPSになり、おそらく後者の48TOPSを実現する可能性が高いが、現時点では確定情報はない。

 そしてQualcommは、10月に来年の半ばまでに新開発のCPU「Oryon CPU」を採用したSnapdragon X Eliteを登場させるのは既報の通りだ。そのSnapdragon X EliteのNPU「Hexagon」の性能は、NPU単体で45TOPS、CPU/GPUを含めると75TOPSと説明しており、現在正式に発表されている(そしてまだ市場に出回っていない)中では最高性能を実現する計画だ。

 AMDの次世代製品は、おそらく来年の後半以降に登場する見通しで、今後はまずAMDがRyzen 8040シリーズがトップに立ち、その後それをQualcommのSnapdragon X Eliteが抜いてダントツトップになる、来年はそうした性能競争が起こるだろう。

IntelのクライアントPC向けロードマップ

 もちろんIntelも黙っているわけではない。公表はしていないが、Core Ultraの直接の後継となる「Arrow Lake」(開発コードネーム)でやや性能を引き上げ、さらにモバイル向けに特化した製品として投入されるLunar Lake(開発コードネーム)では、Strix PointやSnapdragon X Eliteに負けないようなNPU性能を実現する見通しだと情報筋は伝えている。現時点ではIntelから正式な発表はないが、Intelとて止まっているわけではないことは分かる。

 いずれにせよ、2024年、2025年と新しいSoCが登場するたびに、NPUやSoC全体のTOPSが引き上げられていく、そういう競争が繰り広げられることになるだろう。

鍵はアプリケーションの増加

OpenVINOにより構築されたStable DiffusionをIntel NPUで演算するデモ(5月末のCOMPUTEX 23で撮影)

 だが、問題はPCに限った話ではないが、新しいハードウェアが登場した時には、それを使うアプリケーションが必要になる。PCが発展してきた歴史は言うまでもなく、新しいハードウェアが登場するたびに、新しいソフトウェアが登場し、その要求が上がるからさらに新しいハードウェアが登場する……そういう好循環が起きることで、ハードウェアもソフトウェアも発展してきた。

 NPUに関してもそれは同様だと言え、今後NPUを利用するようなソフトウェアが増えなくては、良いハードウェアはあっても「ただの石」に過ぎないことになる。

 このため、Intel、AMD、Qualcommの3社はそれぞれ開発キットを提供してISV(独立系ソフトウェアベンダー)に対してNPUを活用したAIアプリケーションの開発を促している。

 こうした開発キットの提供で先行しているのがIntelとQualcomm、もっとも遅れているのがAMDというのが今の構図だ。

 Intelは「OpenVINO toolkit」(以下OpenVINO)、Qualcommは「Qualcomm AI Stack SDK」という名称で、既に2010年代後半から提供しており、NPUに限らず、CPU/GPUを利用してエッジAIなAIアプリケーションを構築する環境を整えてきた。その結果、両社ともに、既存のCPU/GPUを利用したアプリケーションのコードを少々書き換えるだけで、NPUに対応させることができる。

 それに対してAMDは、今年の5月のBuildに合わせて発表された開発キット「AMD Ryzen AI Software」を一部のISVに提供してきたが、正式に提供を開始したのはつい先日(米国時間12月6日)だ。その意味で、特にOpenVINOで開発されたエッジAIのアプリケーションがたくさんあり、それを容易にNPU(やAMDのCPU/GPU)対応にしてもらえるソフトウェアの充実度で、Intelとは大きな差がついていることは否めない。

Topaz LabsによるRyzen AIを利用して動画の高画質化を行なっているデモ。GPUはゲームで利用されており、右上のNPUの利用率バーでNPUにより動作していることが分かる

 しかし、AMDもそこは認識しており、既にTopaz LabsがRyzen AIに対応したビデオ編集ソフトウェアのプロトタイプをAMDが12月6日に行なった「AMD Advancing AI」において展示してデモしている。

 こうしたソフトウェアの対応は時間がかかる作業であることは間違いないが、Windowsエコシステムの中で少数派のArmアーキテクチャに対応という別の弱点を持つQualcommに比べるとキャッチアップは早いかもしれない。

最終的なAI PCのキラーアプリはやはり「Microsoft Copilot」

9月に正式発表されたCopilot for Microsoft 365(写真は9月のMicrosoft 365 Copilotとして正式発表された当時、写真提供:Microsoft)

 こうしたAI PCのハードウェア、ソフトウェアが置かれている現状に関しては既に述べて来た通りで、現状としてはNPU対応のアプリはまだ少なく、Intelにせよ、AMDにせよ、CPU/GPUでエッジAI処理を行なっているアプリケーションがほとんどだ。今後徐々にNPUに対応したアプリケーションは増えていくことになるが、PCによってはNPUに対応したアプリケーションはMicrosoftの「Windows Studio Effects」だけという例も少なくない。

 そこで、OEMメーカーはISVと協力して独自のAIアプリを実装するという取り組みを行なっている。多いのはローカルLLaMa2-7Bと呼ばれるAIモデルを利用したRewind AIが開発した「Superpower」で、あらかじめ学習したデータをもとにローカルだけで動作するチャットボットをWindows PCだけで走らせることができ、ネットにつながっていない状態でも活用できる。今後はこうしたユーザーがメリットを感じやすいAI PC向けのアプリが増えていくことが何よりも大事だ。

 ただ、最終的にAI PCのキラーアプリになるのは、明らかにMicrosoftのCopilotシリーズのAI PCへの対応(つまりCopilotのローカル処理対応)だ。

 現状Copilotは、旧BingChatになる「Copilot」も、Windows版Copilotになる「Copilot in Windows」も、そしてMicrosoft 365のCopilotになる「Copilot for Microsoft 365」もクラウド側の演算リソースを活用しており、AI PCには未対応だ。特に、Copilot for Microsoft 365はユーザーのデータをクラウドストレージにあげていない使い方をしていると、データをクラウド側にあげて、それからクラウド側のプロセッサで処理して、結果をクライアント側に返すということになるので、遅延が大きな課題になる。

 しかし、ローカルでの推論処理に対応すれば、そうした遅延はなくなる。また、エンタープライズなどで根強く問題とされているクラウドにデータを上げるセキュリティ上のリスクとも無縁になる(それこそがAI PCの最大のメリットだ)。

 その意味で、AI PCが本格的にフライする時、それは「Copilot in Windows」や「Copilot for Microsoft 365」がAI PCに対応する時期と考えられる。Microsoftは現時点では何も明らかにしていないが、多くのPCメーカーはその日ができるだけ早く来ることを待ち望んでいる、それが現状だと言える。