ニュース
Microsoft、生成AIの開発を加速する128コアのArm CPU「Cobalt」とAIアクセラレータ「Maia」
2023年11月16日 01:00
Microsoftは11月15日(現地時間)に同社の年次イベント「Ignite 2023」を開催している。11月15日午前9時からは初日基調講演が行なわれる予定になっており、Microsoft CEO サティヤ・ナデラ氏など同社幹部が参加して同社の新製品や新サービスなどに関しての説明が行なわれる予定だ。
それに先だってMicrosoftは報道発表を行ない、同社が自社開発したArm CPU「Microsoft Azure Cobalt」(以下Cobalt)とAIアクセラレータとなる「Microsoft Azure Maia」(以下Maia)という、同社のパブリック・クラウドサービス「Azure」向けの2つのカスタム半導体製品を発表した。
64bitのArm ISAに対応し、最大128コア構成が可能な「Cobalt 100」
Microsoftが発表したCPUとなるCobaltの最初の製品「Cobalt 100」は64ビットArm ISAを採用したArmアーキテクチャのCPUで、1チップで最大128コア構成となっている。MicrosoftはこのCobalt 100を同社のパブリック・クラウドサービスとなる「Microsoft Azure」経由で提供する計画で、Azureのサービスを利用する顧客のみが利用できることになる。その意味では、AWSが同じように自社のパブリック・クラウドサービスでだけ提供する「Gravitonシリーズ」と同じような位置づけの製品といっていいだろう。
Azureに既に導入しているArm CPU(おそらくAmpere Altraだと思われる、ほかにAzureで利用可能なArm CPUはないため)と比較して、TeamsのサーバーアプリケーションやAzure SQLなどを動作させたときに40%の性能向上が実現されているとMicrosoftは説明している。
なお、今回公開された情報はこれだけで、どのプロセスノードで製造されているのか、搭載されているArm CPUのIPデザインはどこのIPデザインなのかなどに関しての詳細は公開されていない。そのあたりは追々明らかになるだろう。
5nmで製造される「Maia 100」、約1兆トランジスタの巨大チップでMicrosoftの生成AIサービスを支える
MaiaはいわゆるAIアクセラレータと呼ばれる、AIの学習に特化したASICになる。その意味では、Googleが既に導入している「TPU」(Tensor Processing Unit)に近い位置づけの製品になるだろう。
IntelのGaudiシリーズもそうだが、こうしたAIアクセラレータの特徴は、テンソル処理に特化しているため、AIの学習をCPUはもちろんこと、GPUよりも高い電力効率や高い性能で処理することが可能になることだ。
一般的にAIの学習は、NVIDIAのGPU上で行なわれることが多いが、1つのチップで数百Wを消費するようなGPUをさらに並列かして処理させていくため、データセンター全体の消費電力が増えていく傾向にある。そのため、GPUよりもさらに電力効率が高いソリューションが最近注目されており、GoogleのTPUも最新版の「TPU v5e」でさらに電力効率の改善を実現したりしている。
MicrosoftのMaiaもそうした電力効率が高いAIアクセラレータとして活用されることが予想されており、OpenAI modelsを利用したカスタムのファウンデーションモデル、Microsoft自身が提供しているLLMを活用したサービスとなるBingやGitHub Copilot、さらにMicrosoftのパートナーであるOpenAIが提供するChatGPTなどが、Azureの中でこのMaiaを利用して学習を行なうことになる計画だ。それにより、よりデータセンターの電力効率を高め、高まるばかりの生成AIのニーズに応える計画だ。
Maiaの最初のモデルはMaia 100となり、1,050億トランジスタという巨大なチップを、5nmプロセスノードで製造している。また、このMaiaをAzureのデータセンターに格納するにあたり、2つラックのうち1つをMaiaのブレードを格納し、1つを液冷のラジエータとするユニークな冷却装置を採用することで、データセンターの電力効率をさらに改善しているという。
いずれの製品も来年の早い時期にAzureで実際のサービスなどに利用される。また、次の世代の開発も既に進められており、今後Microsoftは複数世代にわたり、こうした自社開発の半導体にコミットしていく計画だと説明している。