元麻布春男の週刊PCホットライン

CESの陰の主役



 今年(2011年)のCESで最も際立っていたのは、その人の多さだったと思う。昨年(2010年)までは、来場者数は微減という感じだったのだが、今年は明らかに人が多かった。渋滞に巻き込まれないで済むとはいえ、駅へのアクセスが必ずしも便利ではなく、路線総延長の短さもあって決して万能とは言えないモノレールが、駅で入場規制されていたのも驚いたが、昼間のピーク時には携帯電話が着信を取りこぼすことがあるほど混み合っていたのにはもっと驚いた。

 通話でこれだから、データ通信はもっと怪しく、3GのモバイルルーターがIPアドレスをもらえないのには困った。当然、CES会場のプレスルームにある無線LANも役立たず(IPアドレス取得できず)で、一番頼りになったのがプレスルームの有線LAN。原稿の大半を、この有線LANを使って送らせてもらった。

 今から5~6年ほど前は、カンファレンス会場の無線LANが役に立たないことなど、そう珍しいことではなかったが、この2~3年ではあまり記憶にない。今回のCESは久しぶりにネットワーク接続が困難だった。2日目以降はだいぶ緩和され、土曜日である3日目にはほぼ解消したものの、つながらないネットワークにはイライラさせられた。クラウド万歳とか言っているヤツは出てこい、そんな気分にもなった。

 筆者が用意していた通信オプションのうち、Virgin Mobile(SplintのMVNO)のモバイルルーターは、上述のようにピーク時には接続できず、ThinkPadの内蔵WiMAXは、宿泊先であるホテルの部屋の向きが悪かったのか、電波の入りが不安定。ホテルの部屋に用意されたインターネット接続も、有償の割に高速とは言えない(20~50kbps)状況で、一番コンスタントに利用できたのは、Verizon WirelessのUSBモデムだった。

持ってて良かったVerizon WirelessのUSBモデム

 モバイルルーターを購入したので、もうUSBモデムは要らないかとも思ったのだが、やっぱり持参しておくものである。以前は、Verizon Wirelessのプリペイドデータ通信は、利用できる支払い方法が米国のクレジットカードとギフトカードに限られていたが、今回はリフィルカードでも支払えるようになっていたので、余計に助かった。

 ちなみにギフトカードは、Verizonショップ(ラスベガスのストリップ近くにはない)でしか購入できない代わりに、額面が自由に設定でき、有効期限がない。利用も、プリペイドサービス以外に、月決め契約した携帯電話(ポストペイド)の支払いにあてたり、アクセサリを購入したりと、金券として多目的に利用可能だ。これに対してリフィルカードは、基本的にプリペイド携帯電話のチャージ専用で、あらかじめ額面も決められている。購入時にレジでアクティベーションしてから一定期間(30~60日程度だったと記憶する)以内に利用する必要があるものの、そこらのスーパーやドラッグストア、コンビニ等で簡単に購入することができる。普段の支払いはリフィルカードを随時購入することにしつつ、保険のためにギフトカードを1枚キープしておく、というのが良さそうな感じだ。

 こうしたプリペイドカードのシステムは、携帯電話のプラン同様、キャリア毎に異なる。つまり上記はVerizon Wirelessのみに該当することであり、キャリアが違えば、プリペイドのシステムも変わる。どの会社のシステムも一長一短で使い分ける必要があるから、本当に面倒くさい(筆者も通話用はT-Mobile USAを使っている)。

 だが、日本国内でプリペイドで利用可能な3Gのデータサービスがどれだけあるかと言われると、短期の旅行者向けのオプションは極めて限られる(強いて言えば日本通信くらいか)。米国でのネットワーク接続は、キャパシティや帯域の点でなかなか満足とはいかないが、こうしたプリペイドサービスの充実を考えると、やはり先進国なのだと思う。

 その先進国のネットワークサービスを、一時的にであるにせよ、使い物にならなくしたのだから、今回のCESの来場者は凄まじかった、と言えるのかもしれない。空港からホテルに向かう際に利用したタクシーの運転手さんによると、CESはラスベガスで5本の指に入るイベントだが、最大のイベントではないとのことであった。が、客層から言って、ネットワーク接続者の数では最大のイベントということは十分考えられる。

 基本的にインターネット時代になって、CESのような展示会は、それほど入場者数を伸ばしているわけではない。微減かせいぜい横ばいというのが一般的だろう。今回のCESで入場者数が増えた理由についても、すぐに思い当たるフシはない。PMA(北米最大のカメラ関連のトレードショウ)が秋に移動したことで、コンパクトデジタルカメラ関連の製品発表は増えたが、展示会場でデジタルカメラの存在感は決して高くはなかった。

 PC関連では何と言ってもSandy Bridgeの発表が大きかったわけだが、CESの主役かというと、やっぱり違う。今や主会場とも言えるLVCC(ラスベガスコンベンションセンター)セントラルホールの入り口近くにブースを構えるIntelとMicrosoftは、CESでも大きな存在にはなっているものの、主役はやはり家電である。Intelも家電向け(組込み系)の製品としてAtomを持っているわけだが、今回のCESではAtom関連の展示はほとんどなく、ブースはSandy Bridge一色であった。


●組込みとPCの違い

 家電あるいは組込み系のプラットフォームとPCは何が違うのか。昨今は家電や組込み系のプラットフォーム(以下では便宜的に計算家電と呼ぶ)も、インターネットアクセスはもちろん、アプリの追加も含め、PC的な機能や要素を加えている。両者を区別する必要はもはやない、という考え方もあるだろう。

 だが、筆者はやはり両者は異なっていると考えている。例えばポータブルゲーム機であるPSPは、計算家電の代表的な存在だ。2004年12月に登場した初代(PSP-1000シリーズ)以来、6年の歳月を経て、現行のPSP-3000シリーズで3世代目を迎えている。6年というのは、2年でトランジスタ数が2倍になるというシリコンサイクル(ムーアの法則)が3回転する期間であり、奇しくもPSPも3世代目に入ったことになる。おそらく内部の基板やチップ構成も、大きく3回変わっているだろう。

 では、ユーザーから見て、PSP-1000とPSP-3000では何が変わったのだろうか。TV出力のオプションが変更されたり、液晶の品質が向上したり、軽量化したり、ということはある。が、ここで重要なポイントは、性能についてはほぼ同じである、ということだ(プロセッサのクロックも上限は333MHzで変わらない)。したがって、ゲームタイトルを購入して、PSP-1000とPSP-3000でそれぞれプレイした場合に、PSP-3000の方が速くて快適とか、PSP-1000は遅くて不利ということは原則的にない。これはPCの世界では考えられないことだ。6年前のPCと今のPCで性能が同じということは、絶対にあり得ない。

 1月18日、インテルは都内でSandy Bridgeの事実上のお披露目となるインテル・フォーラム2011を開催した。その基調講演でインテルの吉田社長は、発表したばかりのCore i7-2720QMプロセッサの性能を、3年前のプロセッサ(Core 2 Duo T7250)の3.6倍だとした。6年前のプロセッサとの比較なら、もっと大きな差になっただろう。PCの性能は、ムーアの法則に基づいて向上し続ける。これがPCの世界の常識である。

 PSPが定期的にモデルチェンジしていることで明らかなように、計算家電の世界にもムーアの法則は働いている。だが、ムーアの法則の恩恵は、PCのように性能向上に向かうのではなく、ダイ面積の縮小や、複数チップの機能を1チップ化することによるコストの削減や、本体の小型・軽量化に割り当てられる。逆に、性能向上により、PSP-3000のユーザーがPSP-1000のユーザーより顕著に有利になることは許されないとも言える。そうなってしまえば、PSP-1000とPSP-3000は別の商品にせざるを得なくなるだろう。

 PC以外の家電製品は、最初に果たすべき機能と性能が定められ、そこからチップに求められる性能が決まる。一度必要な性能が決まってしまえば、それ以上の性能は求められない。これに対してPCは、特定の機能が設定されない汎用計算機であるため、性能に関する制約がない。というより、唯一の目的である「計算」を高速化することが、最も本質的な価値であり、そのためにムーアの法則が活用される。

 Intelの製品ラインナップでは、Coreプロセッサーは汎用計算機のための製品であり、Atomプロセッサーは家電製品向けの製品だ。前者ではTDPを維持しながら、性能向上が図られるのに対し、後者では性能向上よりSoCによる部品点数の削減や消費電力の低下が優先される。同じx86アーキテクチャであっても、この2つのプロセッサーでは、ロードマップのベクトルが全く異なっている。従来のメインストリームプロセッサー(Coreを含む)とは、異なるベクトルのプロセッサーが必要だからこそ、Atomが誕生したのだと筆者は考えている。そう考えるからこそ、Microsoftの今回の発表、次世代のWindowsはSoCでも動作する、を奇異に感じるわけだ。

SoC上でサポートされるのはPC向けと同じ「次期Windows」であって、次期Windowsベースのタブレット向けOSではない

 Microsoftは、「Next Version of Windows Supporting System on a Chip」と述べた。次のバージョンのWindowsはSoCをサポートする、という言葉の意味は、SoC向けに専用のWindowsを出すのではなく、PC用の次期Windowsと同じコードベースのOSがSoCでも動く、ということである。

 そして、MicrosoftはARMアーキテクチャのSoC向けにネイティブなOfficeをリリースすると約束した。これは、ARM上のWindowsがOfficeを動作させることが可能なフルスペックのWindowsであることを示すと同時に、x86ベースのSoC(AtomベースのSoC)には、専用のOfficeはない、つまりPCと同じx86/x64用のOfficeが使える、ということでもあり、AtomベースのSoCプラットフォームとPCで基本的には同じWindowsを動かすつもりであることがうかがえる。

 しかし、PC用OSとしてのWindowsに求められていることは、ムーアの法則によりもたらされた性能向上を利用して、何か新しい機能を実現することである。当然、次のWindowsにも新しい機能が求められるし、そうでなければWindows 7から次のWindowsへの乗り換えは進まない。これはWindows本体に限らず、DirectXや.NET Framework等のライブラリにも言えることだ。

 そうであるからこそ、Windowsは世代毎に重くなることが許されている。Windows Vistaは、重さと追加された新機能のバランスが見合わないということで非難されたが、基本的には重くなることは悪ではない。重くなったとしても、新しい性能の向上したハードウェアにより相殺されるし、PCの買い換えを促すという意味でも、重くなることに問題はない。これはWindowsに限らず、Mac OSにも該当することだ。PCのOSはハードウェアの進歩に合わせて重くなるものなのである。

 しかし、SoC用のOSとなると話は別だ。上述したように、SoCでは世代毎に性能が向上することは保証されない。性能が低下することはないにせよ、性能向上は一義的な目標ではない。より多くの周辺を取り込み、実装面積と消費電力、コストを削減していくことが一義的な目的となる。そのベクトルに、PC向けのWindowsは合致しない。SoC向けOSのベースにWindowsを用いるとしても、それはSoCのベクトルに合わせた別パッケージにする必要がある。

 AppleはiPadをリリースするにあたり、Mac OSではなくiOSを選択した。それは、キーボードのないタブレットに、キーボードとマウスを前提にしたMac OS上のアプリケーションがそぐわない、ということも大きな理由だっただろう。が、SoC(A4チップ)ベースのデバイスに、汎用OSであるMac OSは不適当だ、という判断もあったに違いない。

 この判断が正しかったことは、iPadが大ヒットとなったことでも明らかだ。わが国ではiPadが伸び悩んでいると見るむきもあるようだが、米国でのヒットは疑いようがないし、iPadがなければCESの会場にAndroidベースのタブレットが溢れることもなかっただろう。まだタブレット向けに最適化されたバージョンがリリースされてもいないのに、スマートフォン向けのAndroidを使ってタブレットを用意しなければならないほど、iPadは脅威だと受け止められている。そういう意味では、CESの陰の主役はAppleだったと言えるのかもしれない。