ニュース

Intel、AIソフトウェアにさらなる投資。コアIPを顧客への提供も示唆

Intel 上席副社長 兼 データセンター・AI事業本部長 サンドラ・リビエラ氏

 米Intelは、9月19日(現地時間)より米カリフォルニア州 サンノゼ市にあるサンノゼ・コンベンションセンターで年次イベント「Intel Innovation 2023」を開催した。既に紹介しているように、Meteor Lakeの開発コードネームで開発してきた次世代クライアントPC向けSoCとなる「インテルCore Ultraプロセッサ」(Core Ultra)の技術概要を明らかにし、12月14日に正式に発表すると明らかにした。また、データセンター向けXeon SPに関する情報、4年間で5ノードやUCIeなど製造技術関連の発表など、実に多岐にわたる話題が取り上げられた。

 そうしたIntelが今回のInnovation 2023で注力していたのが「AI PC」(AI推論が可能なPC)や「AI Everywhere」(AIの大衆化)などのキーワードを利用して、Intelの製品群の上でAIを実現していく取り組みだ。

 Intelでデータセンター・AI事業を率いるIntel 上席副社長 兼 データセンター・AI事業本部長 サンドラ・リビエラ氏はNVIDIAの強みとなっているGPUによるAI学習でIntelが対抗する意味でもAIソフトウェアの開発に投資を強めること、さらにはIFSの顧客にIntelのコアIPを提供する可能性を示唆した。

Intelの強みは全ての製品を持っていること

12月14日に発表が明らかにされた第5世代インテルXeonスケーラブル・プロセッサーを紹介するIntel CTO グレッグ・ラベンダー氏、左下にあるのは左からGaudi 2、Intel Data Center GPU Max(開発コードネーム:Ponte Vecchio)

 リビエラ氏は「今やAIは何か1つの製品が全てのニーズを満たすという市場ではない。小さいモデルには小さいモデルを効率よく演算するプロセッサが必要だし、大きなモデルには大きいモデルを効率よく演算するプロセッサが必要になる。

 我々は、Xeon SPなどのCPU、DataCenter GPU MaxのようなGPU、Gaudi シリーズのようなAIアクセラレータ、FPGA、IPUなど大小組み合わせたフルラインナップを持っている。これは他社にはない特徴だ」と述べ、IntelだけがAIに必要な半導体ソリューションをフルラインナップで備えていると強調した。

ラベンダーCTOの2日目基調講演で示されたIntelのAI向け半導体ソリューション

 たとえば、AMDであればCPU、GPU、FPGA、SmartNICなどは持っているが、Gaudi 2のようなAIアクセラレータはまだもっていないし、NVIDIAであればCPU、GPU、IPU(NVIDIA的な言い方をするならDPU)は持っているがFPGAはないなど、そこの差に意味があるかどうかは置いておくとして、リビエラ氏の言うとおりIntelが一番多くのラインナップを持っているというのはその通りだろう。

 Intelは過去数年間、こうした複数の種類のプロセッサ(xPU)をより効率よく使える、ソフトウェアとハードウェアの中間に立って協調するための中間層としての「oneAPI」を開発してきた。誤解を恐れずに簡単に言ってしまえば、oneAPIはNVIDIAが同社のGPUをよりよく使うための中間層として用意している「CUDA」と同じような位置づけになっている。

 CUDAとより上位のAIソフトウェア開発ツールになる「PyTorch」や「TensorFlow」などのフレームワークを使って開発することで、よりGPUのハードウェアを効率よく利用してAIの学習や推論を行なうことが可能になる。oneAPIも同様で、oneAPIを活用してPyTorchやTensorFlowなどのフレームワークと一緒にAIアプリケーションの開発を行なうことで、IntelのCPU/GPU/アクセラレータ/FPGAなどを利用して高効率にAI学習/推論を行なうことが可能になる。

CUDAかoneAPIかという時代は既に過ぎ、その上で動かすソフトウェアが重要に

Gaudi 2

 その意味で、Intelもここ数年でCUDAに匹敵する開発環境を整えた。そうしたこともあって、そこはもはや競争軸ではないとリビエラ氏は指摘する。「既にAIアプリケーションの開発を行なっている開発者の70~80%はCSP(クラウド・サービス・プロバイダー、AWS、Azure、Google Cloudなどのこと)が提供するパブリッククラウドサービスを利用している。彼らの多くはCSPが提供するツールを利用して開発を行なっており、その下でCPUが動いているのか、GPUが動いているのかにあまり注意を払っていないというのが現状だ」とした。重要なことは、AIの開発者が必要とするようなソフトウェアの開発環境を提供することで、NVIDIA GPU以外の選択肢に目を向ける契機になると指摘した。

 IntelのAI向け半導体の現状を理解するには、AIの各種プロセッサを利用した演算は、大きく言うと2種類に分けられることを理解しておく必要がある。それが学習と推論だ。

 学習というのは、非常に乱暴に言うと、子どもにネコはネコ、犬は犬ということを教えるようなプロセス。人間の子どもがそうしたことを学習して大人になっていくのと同じように、AIにも「学習」が必要になる。そしてその学習されたAIを利用して、ネコをネコ、犬を犬とするプロセスを推論という。最近の生成AIで言えば、チャットボットが自然言語で応答することや、画像を生成することもみな推論処理に該当する。

 リビエラ氏は「推論処理のうち3分の2程度がIntelプロセッサで処理されている」と述べ、Intelの強みは推論にあると説明した。

 では学習に関してはどうなのだろうか? それに対してリビエラ氏は「学習では競合が強さをもっている」とだけ述べたが、6月にCOMPUTEX 2023で記者の質問に応じたNVIDIAのジェンスン・フアンCEOは「学習ではNVIDIAが90%近いシェアをもっている」と述べており、だとするとIntelのシェアはそのほかのメーカーと合わせて10%程度の市場シェアしかもっていないことになる。

 そうした現状の中で、IntelのAI向け半導体の戦略はどうしていくのだろうか?

 そのことをリビエラ氏に問うと、「Intelは学習も、推論もどちらでも市場を伸ばしていくことを目指す。たとえば学習といっても1億7,500万パラメータのLLMなどでは確かにGPUで演算するのが有利だ。しかし1,000万パラメータ程度であれば、CPUで学習した方が高効率だ。このように一口に学習といっても、規模やデータ量などで何が最適なプロセッサであるかは異なってくる」述べ、IntelのCPUにも学習である程度の市場シェアを取るチャンスがあるし、より大規模なモデル向けにはGaudiシリーズのような学習アクセラレータにも強い需要が生じていると述べた。

 「鍵になるのはソフトウェアだ。それもCUDAやoneAPIのようなハードウェアレベルのレイヤーではなく、もっとAIモデルやフレームワークといった開発者が開発を行なう際に利用するソフトウェアレイヤーだ。

 開発者はGPT-4やLlama 2のようなLLMなどを使いたいのであって、その下がどうなっているのかは我々が考えているほどは注意を払っていない。そのため、我々は今後もソフトウェア関連の投資を増やしていき、そうしたソフトウェアをIntelプラットフォームに最適化していく」と述べ、LLMやほかのAIモデル、さらにはPyTorchのようなフレームワークのオープンソース開発への投資とリソースの配置を行ない、Intelの存在感を強めていくと強調した。

競合する他社がIFSで製造するという道も

パット・ゲルシンガーCEOが基調講演で紹介したSierra Forest

 データセンターやAI向けのCPU/GPU/アクセラレータなどを提供する事業部の責任者として、リビエラ氏は競合に勝つような戦略を立て、製品のロードマップを作り実行していくが、同時にそうした競合がIntelの受託製造サービスとなるIFS(Intel Foundry Services)で製造してくれるなら、それも歓迎する姿勢を明確にした。

 たとえば、IntelのサーバーCPUの顧客でもあるAWSは、ArmアーキテクチャのGravitonシリーズをAWSのインフラサービスであるEC2のインスタンスとして提供している。Gravitonは、リビエラ氏から見れば完全な競合だが、会社全体を見ればIFSの潜在顧客ということになるということだ。

 リビエラ氏は「最初に強調したいのは、我々が来年(2024年)計画しているSierra Forestは1つのダイで144コアを実現し、パッケージ全体では2つのダイを実装できるため、288コアを実現することができる。既にデータセンターでは、x86のソフトウェアエコシステムがあるのだから、それを活かして、高効率、高スループットな環境を実現することができる。

 しかし、顧客がx86ではないプラットフォームの製品をIFSで作りたいというのであれば、もちろんIntelとしてはそれも大歓迎だ。半導体ビジネスは規模の経済であり、数が多ければ多いほどさまざまな取り組みが行なえる。それにより歩留まりが向上し、欠陥が発生する率を下げることができる。だから、顧客が我々の製品に競合するような製品をIFSで作りたいと言ってきてもIntelとしては大歓迎だ」と述べた。

 実際、Intelは既にIFSにおいてArmとの提携を発表している。この提携では、Armの顧客になる半導体メーカーが、Arm CPUを自社製品に搭載してIFSで製造することを容易にする契約だ。

 Armは、提供するIPデザインをTSMCなどのファウンドリのプロセスノードに最適化する取り組みを行なっている。そうしたことをあらかじめやっておくことで、Armの顧客がTSMCで製品を製造する際に性能を最大化し、歩留まりを比較的早く引き上げられる効果がある。

 IFSとArmの提携もそれと同じで、今後はIFSでもそうした取り組みが行なわれるということだ。従って、現在TSMCで製造しているArmプロセッサを将来はIFSで製造するという話は、決して遠い未来の話ではなく近未来の話だ。

 また、リビエラ氏は、将来的にはデータセンター・AI事業部が持つようなコアIP(たとえばx86 CPUやFPGAなどのこと)をIFSの顧客に提供することは十分に考えられると明らかにした。「我々がもっているコアIPの一部を、IFSを通じて顧客にライセンス供与することは当然検討しているし、そうなっていくと考えている。その結果、我々はそのライセンスを通じても利益を得ることができる。

 いずれにせよ、我々はオープンプラットフォームという方針を打ち出している。事業部もその方針に指示しており、古くさいクローズなやり方にしがみつくことはしない」と述べ、具体的にいつということは明らかにしなかったが、将来的にx86 CPUなどこれまで門外不出だったIntelのIPを、CSPのようなIFSの利用を検討している顧客に提供する可能性を検討していると述べた。

 それが実現すれば、たとえばAWSやGoogleが自社でx86 CPUを設計し、自社のインスタンスとして提供していく、そういう未来がやってくる可能性があるということだ。

 つまり、AWSのArmベースのCPUであるGravitonが、将来はSierra Forestに利用されるx86のEコアに切り替わっていく……そうしたことが起きておかしくないということだ。Armとの競争という観点から見ても、IntelのコアIPが門外不出でなくなることの意味は小さくなく、今後もその動向は注目が必要だ。