1カ月集中講座
今どきのタブレット/スマートフォン向けSoC 第4回
~苦しみながらもSoCビジネスに邁進するIntelとNVIDIA
(2013/12/26 06:00)
ここまでご紹介してきた通り、スマートフォン/タブレットの市場はARMの天下、より正確に言えばARMのエコシステムの天下となっており、それ以外のプレーヤーが入ろうとするのは非常に難しい状況にある。にも関わらず、ここに積極的に参入を試みているベンダーが2社ある。言うまでもなくIntelとNVIDIAである。最終回となる今回は、その両社の動きをご紹介したいと思う。
IA/x86でARMエコシステムと戦うIntel
Intelは携帯電話に興味がないわけではなかった。1997年、Intelと旧DECの特許訴訟の和解条件としてIntelは「StrongARM」の製品ポートフォリオを手に入れる。当時このStrongARMはCOMPAQの「iPAQ」シリーズなどのPDAに利用されていたから、それなりに需要もあったが、ここで“掛け金を倍にする”のがIntel流。StrongARMはARM v4ベースの製品であったが、1999年にARMからARM v5のアーキテクチャライセンスを入手。StrongARMをベースに、中身を完全に作り変えた「XScale」を完成させる。
この時点でのIntelの目論見は、現在とちょっと違ったものだった。PDAの市場はそれなりに盛り上がっていたものの、新アーキテクチャの製品ラインを維持するには十分とは言えない出荷量だった。そこで、携帯電話の市場にもXScaleを投入することで、シェアの拡大+長期的な売り上げ確保を目指したというのが正直なところだろう。
これに向けて2003年、GSM/GPRSに対応した「PXA800」というチップを華々しく発表した。CPUコアはXScaleであり、ベースバンドに関してはADI(Analog Devices Inc.)からライセンスを受けてDSPを入手し、これを「Intel MicroSignal Architecture」として実装した。当時はまだIntel自身がフラッシュメモリ部門を保有していたからこれも実装。さらにSRAMを4.5Mbitも実装するという、130nmプロセスにしては贅沢というか欲張った仕様のSoCである。またPXA800の発表以前に発売していた「PXA210」もフィーチャーフォン向けに投入するつもりだった。
ご存知のようにPXA210やPXA800を採用した携帯電話メーカーは1社もなく、PXA800の後継となる「PXA900」がRIMの「Blackberry 7800」など数機種に採用された程度で、その数量もそれほど多くはなかった。結果、IntelはXScaleアーキテクチャそのものを含むPXAの製品ラインを、これに関わる人員ごとMarvellに売却してしまう。ここで一度携帯電話向けのビジネスは完全に挫折することになった。
こうした手痛い経験をしたにも関わらず、再びIntelが携帯電話向け市場に参入した理由は、これもご存知の通り、PC市場の縮小傾向によるものだ。現時点におけるIntelの競争力の源泉は自社のFabによる優れたプロセス技術である。ただし、この優れたプロセス技術を維持してゆくためには膨大なコストがかかる。それは単にプロセスの開発だけでなく、量産のための設備のコストがどんどん上がっているからだ。これまでは、販売価格が高いPC向けプロセッサを大量に出荷する形でカバーできた。ところがPC向けプロセッサの出荷数量そのものが衰退傾向にある現状では、
- 次世代のプロセスノード向け開発に必要なコストが上昇し、プロセッサ1個あたりに占める開発/設備コストも上昇。一方で販売価格はむしろ引き下げる方向にあるため、どんどん利益が減っていく。
- 純粋に出荷数量が減ると、それだけFabの稼働率が下がることになる。特にIntelの場合、「Copy Exactly」と呼ばれる複数のFabで量産を行なう方式を前提に生産ラインの開発や機器の発注を行なっている上、そもそも自社製品のみの生産なので少品種/多量という形の量産になる。そのため、PC向けプロセッサの出荷量が減ったときに、ほかの製品で埋め合わせがしにくく、そのまま稼働率の低下に繋がる。
といった問題が露呈することになる。
実は、Intelは比較的早期にこの問題に気が付いていた。そもそも2008年に投入されたAtomは、当初からスマートフォン向けに投入することを想定しており、これに向けた「Moorestown」プラットフォームも早い時期にアナウンスされていた。もっともこのMoorestownが投入されたのは2年遅れの2010年のことである。理由は2つある。
1つはCPU側(Lincroft)が再設計されたコアだったことだ。Lincroftの元になったSilverthorneは純粋にCPUだけのダイであったが、スマートフォンなどを対象にするとなると、やはりGPUの統合が必要である。最終的には「Intel GMA 600」というGPUを統合したが、これはImaginationの「PowerVR SGX」であり、統合作業に1年以上を要することになった。通常はSilverthorneの開発と並行してLincroftの開発作業が進められていると思うのだが、当時IntelはAtomを利用して広範な製品ラインナップを提供することを予定しており、開発側のリソースが足りなかったのではないかと筆者は考える。
もう1つは45nm世代でSoCプロセスの構築に事実上失敗したことだ。高速ロジック向けの45nmプロセスである「P1266」は2007年に提供を開始し、これに続いてSoC向けとした「P1267」を2008年にリリースする予定だった。当初Lincroftは、このP1267を使って提供する予定だったと言われる。実際、省電力を追求するなら高速ロジック向けのP1266よりもP1267の方が向いている。が、IntelはこのP1267の開発に事実上失敗。これを採用したのは本当にごく一部の製品に留まり、Lincroftだけでなく同じSoCプロセスを使うPC用チップセットも全て、32nm SoCの「P1269」が出るまで待つ羽目になった。結果、Lincroftは2010年の投入にも関わらず動作周波数は1GHz前後(ハイエンドのZ625ですらやっと1.9GHz)でしかなかった。2010年といえば40nmで2GHz駆動のDual/Quad Cortex-A9ベースのSoCが出てきていた時期であり、商品競争力が皆無とは言わないまでも、かなり低かったと言える。
ただ、45nm SoCで長くトラブルを経験した分、32nmのP1269や22nmの「P1271」では比較的スムーズに開発が進んだようで、2012年には基本的な構成は大きく変えないままにP1269を使った「Medfield」が登場、さらに2014年にはCPUコアのマイクロアーキテクチャを刷新してP1271を搭載した「Merrifield」が投入予定となっている。
Medfield/Merrifieldともに、基本的なアーキテクチャはタブレット向けの「Clover Trail」や「Bay Trail」と同じで、動作周波数や消費電力をスマートフォン向けにした、という程度のものである。ちなみに、Merrifieldの存在そのものは2013年6月のCOMPUTEXで紹介されたが、製品レベルでの詳細は2014年2月のMWCに持ち越しとなっており、公式にはまだ発表されていない。だが、基本的にはBay Trailと同じことから、すでに製品はスマートフォンベンダーに渡って実装がかなり終わっているはずで、MWCのタイミングでは搭載製品も発表されるのではないかと思う。
さて、従来今後のロードマップとして示されていたのは下図である。元々ベースとなるAtomコアそのものが、現在22nmの「Silvermont」から14nm世代で「Airmont」(これはSilvermontの14nmプロセスシュリンク版)に切り替わるのに対応して、このコアを搭載する「Moorefield」が投入されるという話は以前からあったが、2013年11月のInvestor Meetingの際にもう少し先の話が出てきた。
まず2014年であるが、前半にMerrifield、後半にMoorefieldが投入されるのは既定事項である。が、これとは別に「SoFIA」と呼ばれる新しいコアがローエンド向けに投入される。このSoFIAは3Gモデムを内蔵した製品であるが、2015年にはハイエンドに(Airmontの後継で機能強化した)「Goldmont」コアを内蔵した「Boxton」、ローエンドには内蔵モデムをLTE対応に切り替えた「SoFIA LTE」がそれぞれ投入されることになる。この結果、2015年はラインナップが非常に充実することになる。
面白いのはこのSoFIA、Intel社内での製造ではないことだ。明確には示されなかったが、これまでの経緯を考えるとTSMCで20nmプロセスもしくは16nm FinFETプロセスでの製造になりそうだ(筆者は前者の可能性が高いと考えている)。この動きは、最初に説明した「Fabの稼働率を引き上げる」と真っ向から対立するものであるが、これに関してCEOのBrian Krzanich氏は「我々は現実的にならなければならない」とした。これは、IntelのFabは確かに高い技術を誇っているが、その反面生産に要するコストも高い。つまり販売価格を高くできるBoxtonはともかく、低価格製品向けのSoFIAまで製造するとコストに見合わないことになる。このため、SoFIAに関しては外部のファウンダリを使うことにした、ということだろう。
この背景も、やはりInvestor Meetingで明らかにされている。 PCやデータサーバー部門ではそれなりの黒字が出ているほか、ソフトウェア/サービスも赤字にはなってない。それに対してタブレットやスマートフォンの部門では明確に赤字だからだ。売り上げが40億ドルに対して営業損益が25億ドルの赤字、というのは、いくらトータルとして黒字額が多いとは言え、部門存続にはなんらかの手を打たないわけにはいけない。その方法論の1つとして、原価率を下げるために、製造を外部委託せざるを得なかったということだ。
さて、ここまで手を打ったらIntelのスマートフォン向けSoCは安泰か? というと、非常に疑わしいというのが正直なところだ。第2回のQualcommの項で説明したように、とにかくスマートフォンの市場に入るためにはモデムがないと価格競争力に著しく欠ける。だからこそ頑張ってモデムを内製した。しかし、もはやそれは差別化の要因にはならない。第3回でも紹介した通り、SpreadtrumやHiSiliconの低価格SoCですらモデムを内蔵しており、これらと互角に勝負しようとしたら、かなり辛い戦いになる。Intelが主にAtomベースSoCの性能の高さをアピールするのは、そこでしか勝負が出来ないということの裏返しでもある。
もっと深刻な問題は、ここまでやってもIntelのSoCにはあまり魅力がないことだ。特にスマートフォン向けでこれは顕著である。これは、ARM対Intelの対立というのは、実際には性能や命令セットではなく、エコシステムの対立であり、携帯電話向けメーカーにとってIntelのエコシステムが魅力的ではない、という点に尽きる。
Intelのエコシステムというのは、ずばり書いてしまえばIntel(とMicrosoft)の一人勝ちとなるエコシステムである。これは長年に渡り、IntelとMicrosoftが高い営業利益率を毎年維持してきた一方で、PCベンダーの営業利益率が数%のそれも前半の方を低空飛行していたことを考えていただけば理解しやすいと思う。対してARMのエコシステムの場合、利益の大半は機器ベンダーの手に入る。なにせSoCの原価率がおおよそ5%程度、という事を考えればこれも理解しやすいかと思う。携帯機器ベンダーにとってどちらのビジネスが好ましいかは言うまでもない。
ついでに書いておけば、性能面の差異というのは、機器メーカーにとって実はそれほど大きなものではない。最終的に実装の仕方でこのあたりはどうにでも変わるからだ。もちろん10倍や100倍といった性能差があれば話は変わってくるのだろうが、数十%の差は、実際には最終製品では大きな差とならない。商品企画として独自の常駐ソフトを動かすことになったら、それだけでバッテリ寿命や性能に影響が出てくるからだ。
また、SoCの場合、一応定格のスペックはあるものの、実際には機器ベンダーが動作周波数や構成を自由にいじれるし、実際に商品企画に合わせて細かく変更するため、リファレンスの性能そのままということにはまずならないからだ。もちろん最終的にはエンドユーザーの操作感という形で性能は影響してくるのだが、一般に人間の感覚は対数に比例するとされており、10倍の性能でやっと「2倍ほど速い」という感覚。数十%の性能差だと殆ど認識できないのが現実である。こういう現状ではIntelのSoCのメリットとされる「高い性能」は、あまり差別化の武器とならないということだ。
もちろんタブレット向けではそれなりにシェアを獲得しつつあるが、それは「Windows 8/8.1が動くのが現実問題としてx86のみ」という事情によるものだ。Windows RTの普及が進まず、Windows系のタブレットではほかに選択肢がなくなってしまった。逆に、Androidを動かすのにx86である必要はないという状況には何の打撃も与えていないのが実情で、Windowsの力が及ばないスマートフォン分野での存在感は非常に薄いままである。頼みのMicrosoftも、Windows Phoneはこれまた伸び悩み、しかも対応プラットフォームはARMのみ。起死回生の策だったはずのTizenは遅れまくりである。伝え聞くところでは、2014年2月のMWCで初のTizen搭載スマートフォンが登場する“らしい”が、果たしてこれがなんらかの起爆剤になり得るか、現時点では判断しにくい。
Intelがスマートフォンの分野である程度のシェアを獲得するためには、まずはエコシステム(ビジネスモデル)のあり方を見直す必要があるだろう。ただ仮にそこまでやったとしても、先に述べたFabの稼働率低下や全体としての利益率低下といった根本的な問題の解決には繋がりにくい。だからといってここで手を引いたら、後は凋落するしかなく、非常に苦しい舵取りを余儀なくされているのが、現在のIntelのスマートフォン向けSoCビジネスというわけである。
x86からARMへ軸を移したNVIDIA
続いてはNVIDIAだ。NVIDIAが利用しているCPUコアはARMベースであるため、冒頭で述べた「ARMのエコシステム以外のプレーヤー」という表現とは、正確にはやや違うことになる。ただ、ARMのエコシステムの場合、中心はCPUにあるのに対して、NVIDIAはGPUを中核に置いているところが、ほかのエコシステムパートナーと異なる。
そのNVIDIAの携帯電話/PDA向けソリューションとしては、2003年に発表した「GoForce 2150」が最初のものとなる。もっともこの製品は、2003年8月に買収したMediaQというベンダーが開発していた、携帯電話向けの2D Graphics+カメラインターフェイスのSoCである「MQ2100」をベースとしたもので、まだNVIDIAの独自色はない。
これに続き同社は3Dレンダリング技術を搭載した「GoForce 4500/4800/5300/5500」といった製品を送り出す。この3Dレンダリング技法はタイルベースという以上の詳細は分からない。NVIDIAは2000年に3dfxを買収したが、この3dfxは同じ2000年にGigaPixelというメーカーを買収している。携帯電話などに適したタイリングベースのレンダリングエンジンを開発しており、1999年にはMPF(MicroProcessor Forum)の会場で「Quake 2」の動作デモが行なわれていたほどの完成度であった。最終的にこのGigaPixelの技術がどの程度NVIDIAで利用されたのかは分からないが、GoForce 4500などの中身がこれをベースとしたものであっても、さほど不思議ではない。
そのようにずっとGoForceを提供してきたNVIDIAだが、携帯電話でGPUが外付け、という構成は実装面積の点で不利なのは言うまでもない。そうした事もあって、GoForceの最終製品である「GoForce 6100」には、アプリケーションプロセッサとしてARM 1176JZ-Sコアを搭載し、あとはモデムさえ接続すればスマートフォンが出来上がり、というところまで集積度を高めた。このGoForce 6100が発表されたのは2007年2月のMWC会場であるが、その4カ月後には400MHzで動作するARM11を搭載したiPhoneが投入されている。流石に性能面でそれなりの体感性能差があったこともあり、採用事例はそう多くなかった。
さて、この頃からNVIDIAを取り巻く環境がちょっと変わってきた。NVIDIAはこの頃、GPUカードビジネスに加えてチップセットビジネスにも力を注いでいた。GPUカードを使うためには性能が良いチップセットが必要であり、特にSLI構成ともなるとPCI Expressを2スロット使うことから、ここに向けたチップセットはそれなりに売れた。また当時のCPUはGPUを内蔵していなかったため、性能の良いGPU統合チップセットにはそれなりのニーズがあった。
が、こちらの雲行きが怪しくなってきた。まずIntelとの間ではバスライセンスに関する交渉が難航しており、やっとP4バスのライセンスを得て製品を出荷したと思ったら、肝心のIntelがQPI&DMIにCPUインターフェイスを変更してしまい、しかもIntelはこれらのインターフェイスのライセンス契約を断固拒否したことで、最新CPU向けのチップセットを提供できなくなってしまった。おまけにIntelはGPUをCPU側に統合し始め、GPUカードの需要自体が減りつつあった。
もっと極端なのはAMD向けで、マーケットシェアを反映して元々Intel向けほど数量が出ていなかったのに加え、2006年にAMDがATI Technologiesを買収。ATIが提供していたチップセットをAMD自身が提供する方向になったことで、NVIDIAのシェアは大きく減ることになった。AMDもまた、CPUをGPUに統合する方向性を明らかにしていたから、ますますNVIDIAのチップセットビジネスの先行きは不明確になってきた。こうした動向を受け、最終的にNVIDIAは2010年にチップセットビジネスから撤退するわけだが、それ以前のタイミングでプラットフォームを従来のx86頼りからARMに切り替える決断をする。x86ベースでは出荷数量が先細りするのは明白であり、ARMに切り替えることで新しい市場を握る決断をしたわけだ。
2008年に、これに沿った形で最初の「Tegra」をリリースする。もっともこのTegraは、言ってみればGoForce 6100の延長にある製品で、性能面では十分と言えなかった。そこでCPUコアをCortex-A9に切り替えるとともに、デュアルコア化した「Tegra 2」を2010年に投入する。こちらはGoogleのHoneycombのリファレンスとなったことで、多くのタブレットに採用され、まずまずの出だしとなった。
しかし、2011年11月に発表された「Tegra 3」は、Googleのリードデバイスである「Nexus 7(2012)」に採用されるなど、最初の評判こそまずまずだったものの、やがて失速することになった。その最大の理由はCPUを強化したにも関わらず、GPUコアの性能改善が十分ではなかったことだ。確かにTegra 2と比較すると性能は改善されたが、このころには競合のSoCがいずれもGPU性能を強化しており、結果的にGPUの強さがアドバンテージにならなかった。また、タブレットにおいてはそれなりの採用例を獲得したが、スマートフォン向けの採用例はそう多くなかった。実のところ、この当時Tegra 3、あるいはTexus Instrumentsの「OMAP 4」をスマートフォンに採用したメーカーの多くが、「本当はSnapdragonを採用したかったのだが、Qualcommの供給が不足しており、やむなくSnapdragon以外を検討せざるをえなかった」という消極的な理由によるもので、Snapdragonの供給が回復すると急速に尻すぼみになっていったのは無理もないことである。
また、NVIDIAもモデムがないと話にならないことはTegra 2の世代に既に認識していたようだが、当時は残念ながらモデム関係の技術の蓄積は皆無だった。結局同社は2011年に英国のIceraというベースバンドモデムを製造している会社を買収。これを元に「Tegra 4」の世代にやっとモデムを提供できるようになった。そのTegra 4は2013年に発表されたが、今のところ採用事例は同社のリファレンスデザインであるPhoenixや中国Xiaomiなど、ごくわずかという状況である。OEMメーカーへの出荷はとっくに開始されているから、2014年のMWCでは他社からも出てくる可能性はあるが、現時点では結構難航している。理由はこれも明白で、NVIDIAのモデムのキャリア認証が全然終わっていないからだ。このあたり、通信機器メーカーと組んだHiSiliconや、もともと通信関係のビジネスが長く、しかも資本力を活かした力技で認証を進めているIntelと異なり、NVIDIAにはそうした経験の蓄積もエンジニアもないし、キャリア認証にそんなにコストを投じることもできない。
ここからは筆者の主観であるが、NVIDIAが「Shield」や「Tegra Note 7」といった製品を矢継ぎ早に出すのは、とにかくキャリア認証が取れるまではスマートフォン向けの出荷が期待できず、スマートフォン以外のTegra 4の採用事例を増やさないとにっちもさっちも行かない、という状況に陥っているのではないかという気がする。少なくとも現状、NVIDIAのSoCビジネスが順調か、と言われると首を傾げざるを得ない。
ポストPC時代に向けてARMのエコシステムの中でGPUを売る、というビジネスの大枠は間違っていないと思うのだが、そこでIPを売るのではなくシリコン(半導体)を売ることを選んだが故に苦労してしまっているのがNVIDIAの現在の姿である。もっとも、NVIDIAもIP販売に徹するべきだったかと問われると、ARMのMaliやImaginationのPowerVRを押しのけて採用を獲得できるだけのエコシステム構築には、やはりそれなりのコストや手間がかかるため、いずれにしても茨の道であっただろう。今は苦しみながら経験を積み重ねている段階、というのが正しい認識なのかもしれない。
ちなみにNVIDIAがこの市場から撤退する気配はなく、次世代コアとして「Logan」、次々世代コアとして「Parker」をそれぞれ開発中である。特に「Parker」は同社がARM v8のライセンスを受けて自社でアーキテクチャから設計した「Denver」コアをベースとする模様である。課題は、同じようにARM v8アーキテクチャライセンスを受けたBroadcomやAPM、Appleといった企業と異なり、自社でCPUアーキテクチャを設計したこともなければ、公式にはそうした会社を買収してもいないことだ。噂では、2009年ごろにシリコンバレーにおいてCPU設計者を広く採用し、x86の設計チームほぼ1チーム分を手に入れた、なんて報道が流れたことはあった。これが事実だとすれば、開発リソースはあることになるが、このあたりは明確ではない。NVIDIAのSoCビジネスも、Intel同様に苦しみながら続けているというのが正確なところではないだろうか。