|
●不景気をバックグラウンドにしたIDF
Pentium 4 2GHzの発表会をフィーチャーしたIndustrial Dayに続き、8月28日からIntel Developer Forum(IDF)が始まった。新たに加わったIndustry Dayを含めると、今回からのべ4日間のイベントとなったIDFだが、今回はCEOであるCraig Barrett社長も、CTOであるPat Gelsinger副社長も参加しないIDFとなった。両エグゼクティブとも、たまたま休暇と重なった、ということのようだが、Mr. IDFとでも呼ぶべきGelsinger副社長が不在のIDFは、何とも奇異に感じられる。
前回のIDFは、ネットバブルが崩壊した直後のIDFであり、端々に不景気の影が忍び寄っていたものの、まだどこかに好景気の残り香や、早期に景気が回復するのでは、といった希望が感じられた。しかし今回のIDFは、この不景気が一時的な調整局面によるものではなく、ある程度持続的なものになることをみなが覚悟した上でのIDFであるように思う。実際、IDFの開催地であり、シリコンバレーの中心地であるSan Joseのダウンタウンを歩いていても、シャッターを閉じた店が多いのに気づく。以前からSan Joseのダウンタウンは、San FranciscoやNew Yorkのような「繁華街」だったわけではなく、商店街には借り手を求める張り紙が目立っていたのだが、半年前と比べても、店をたたんだ跡が目に付く(それでも、治安が極端に悪化した印象がないのは幸いな限りだが)。
●Innovative PC Awardsに表われた保守性
展示されていたコンセプトPCの1つ、FoxconnのHilo Bay。Depot Bayと呼ばれるIntelのコンセプトマザーボード(i850ベース)を採用したPentium 4 PC。温度に応じて冷却ファンの回転数を制御し、少しでも静かなPCにしようという試みは、会場に展示されていた多くのPentium 4 PCに共通する |
また、今回から選考基準にベンチマークテストが含まれるようになった、というのも「Innovative」というテーマとは一致しないように思う。これではInnovative PC Awardではなく、Intelが考えるBest Buy PC Awardになってしまうのではないか。おそらくこうした変質を招いたのも、結局は不景気ゆえではないかという気がする。売り手から商売を抜きにしてラディカルなPCをデザインする(新しいPCを提案する)余裕が失われつつあるのと同時に、買い手にもそうした余裕がなくなっているのだろう。
とはいえ、会場からコンセプトPCが消えてしまったわけではない。これまでよりは目立たないものの、HP、Legend、Chenbro、Foxconn、Yeong YangなどのメーカーがコンセプトPCの展示を行なっていた(一部、今回が初お披露目でないものも含まれる)。すべてに共通するのは、容積の小さな、一風変わったデザインの筐体に、Pentium 4を収めている、ということだ(もっとコンベンショナルなデザインで小型のPCはCompaqもIndustrial Dayに展示していた)。
これらのコンセプトPCを見るまでもなく、これまで発熱量の点から困難といわれてきた、省スペースの筐体にPentium 4を収めるということが、どうやら可能となった。IDFのセッションにも、Pentium 4 CPUを限られた容積のPCに、といったものがあり、どのようにして機能と容積のトレードオフを行なうべきか、どうやって冷却に必要な風量を確保するか、といったことが議論されている。おそらくは、上述のコンセプトPCは、こうしたIntel自らの研究(Intel流にいえばenabling)を反映したものだろう。
ここで思うのは、このenablingが冷却方式の研究・開発によるもので、Pentium 4そのものに対する変更を伴っていない、ということだ。つまり、その気になればOEM/サードパーティでも可能だった、ということである。確かにPentium 4は発熱量が高く、日本で人気の薄型/小型のPCには不向きかもしれない。Pentium 4をこうしたPCでも使いやすいよう、低発熱にするようIntelに求めていくことも重要だろう。
しかし、今回のコンセプトモデルを見ていると、これならその気さえあれば、日本のメーカーが独自にPentium 4を採用した薄型のPCをデザインすることも可能だったのではないかと思えてならない。もちろん、そのためには開発費というリスクを負わねばならないが、Intelのenablingを待っていては、他社との差別化、自社製品の相対的な価値を高めることなど不可能だ。低コスト化と高付加価値路線は、両立しないテーマだが、低コスト化を指向しても、土地代や人件費など固定費の高い日本の勝ち目は薄い。薄型のPentium 4 PCをリスクを負って開発しても、果たして消費者にPentium 4のCPUパワーが必要とされているのか、という根本的な問い掛けがあるのは事実だが、どこかで勝負に出ない限り、ジリ貧になるのは避けられないように思う。
●基調講演でPentium 4 3.5GHzをデモ
さて、IDF初日の基調講演を行なうのは、その時のIDFに参加したIntel役員中、トップの序列にあるものの勤めというのが恒例だ。今回は上級副社長にして、IntelアーキテクチャグループのトップであるPaul Otellini氏である。
加えてもう一人、Microsoftプラットフォームグループのグループ副社長であるJim Allchin氏が基調講演を行なった。初日の二人目というのは、社外のスピーカーとしては最高のポジションであり、Microsoftを重視していることが端的に現れている。もちろん、その大きな理由がMicrosoftとIntelが共同でWindows XPのマーケティングを行なうことからきていることは間違いない。今回のIDFでは、Windows XPや.NETに関するMicrosoftのセッションがかなり目立った。Allchin氏の基調講演は、基本的にWindows XPのプロモーションに終始した印象が強いが、IDFの前の週にPCメーカー向けにWindows XPを出荷したばかりであることを考えれば、無理のないところだろう。
一方、Otellini氏の基調講演は、非常にストレートでありながら、新しい内容を含むものだった。過去のCPU性能の向上を振り返った上で、いきなりPentium 4 3.5GHzをデモ。その上で、MPEG-2のリアルタイムエンコーディング、802.11aのソフトウェアモデム化、自然言語処理などを考えると、まだまだCPUパワーは不足しており、今後もCPU性能を向上させ続ける必要性を力説した。さらに、CPUパワーの向上が今後も必要とされ続けるということを踏まえた上で、それだけでは十分でない、ということが述べられた。
CPUパワーを向上させること以外に必要なことの1つは、CPUの省電力化だ。これまでIntelはCPUパワーを向上させる一方で、CPUの消費電力も増大させてきた。CPUの消費電力は、最新のPentium 4 2.0GHzではついに70Wを超えている。今回Intelが公表したBaniasでは、高性能を維持しながら、消費電力を低減させるのだという(Reducing Power while Maintaining High Performance)。筆者が一番画期的だと思ったのは、ここで性能を向上させると言わなかったことだ。これまでのIntelなら性能を向上させながら、なおかつ消費電力も抑える、ということに近い言い方をしたハズだが、ここでは性能が必ずしも向上するとは限らないを示唆している。これは画期的な路線変更(今まで存在しなかった路線の出現)であり、どうやら本気で消費電力の低減に取り組むようだ。
●IA-32の将来をになうHyper-Threading
逆に、単なるクロックアップだけではない性能向上の手法として紹介されたのが、Hyper-Threading Technologyと呼ばれる技術だ。平たく言うと、NetBurstアーキテクチャのCPUに、AS(Architecture State。eax、ebx、コントロールレジスタといったレジスタ群とローカルAPIC)を追加することで、物理的には1つのCPUでありながら、論理的には2つのCPUに見せかける技術だ。
一般にCPUの性能が、1クロックサイクルあたりの命令実行数と動作クロックの積で求められることは、広く知られているとおり。同時実行可能な命令数を増やすことは、クロックを上げることことと同じくらい(あるいはそれ以上に)、CPUの性能向上において重要なことである。もちろんPentium IIIやPentium 4は、同時に複数の命令を実行可能な、スーパースカラ型のプロセッサだ。
スーパースカラ型のプロセッサに共通する問題は、いつも同時実行可能な最大命令数を処理できるわけではない、ということにある。キャッシュミス、分岐予測の失敗、あるいは命令間の依存性などによって、CPUがストールすることは、スーパースカラ型のCPUにとって避けられない問題である。Hyper-Threading Technologyは、物理的には1つのCPUを2つのCPU(仮想CPU)に見せかけることで、CPUのストールを減らそう、というものだ。つまり、あるスレッドの処理が何らかの理由でストールするのなら、そのスレッドがストールしている間に、他のスレッドの処理を行なうことで、実行ユニットを遊ばせないようにしよう、というアイデアである。
実行ユニットは1つしかないわけだから、いくら2つのCPUに見えるといっても、性能が2倍になるわけではない(実際にはCPUが2つになっても性能は2倍にはならないのだが)。だが、追加するリソース(AS)も小さいため、ダイ上のペナルティも小さくできる。Intelによると、約5%のペナルティ(ダイ面積が5%増大する)で、最大30%の性能向上が得られるということである。
もちろん、この性能向上を得るには、ソフトウェアが対応していなければならない。OSがマルチスレッドに対応していることに加え、アプリケーションも対応している必要がある。このHyper-Thread Technologyが最初にインプリメントされるのが2002年にリリースされるXeonプロセッサMP(4プロセッサ構成以上をサポートするXeon。オンダイのL3キャッシュを備える。ちなみにキャッシュメモリも仮想CPU間で共有される)になるのも、サーバアプリケーションやワークステーションアプリケーションの方がマルチスレッド化が進んでいるから、とも受け止められる。
とはいえ、このHyper-Thread TecnologyはXeonプロセッサのものだけではなく、将来的にはデスクトップPC向けのプロセッサ(将来のPentium 4あるいはその後継のプロセッサ)、モバイルPC向けのプロセッサにも採用される見込みである。つまり、Hyper-Thread Technologyは、IA-32プロセッサ全般に採用される、同時実行可能命令数を増やすための技術ということになる。
IntelはIA-64において、Hyper-Threadとはまったく異なるアプローチ(EPIC)を採用した。EPICで高い性能を発揮するには、最適化されたコンパイラと、それにより生成される新しいバイナリが必要となる。全く新しいアーキテクチャであるIA-64ならこの方式が採用できても、必ず既存のソフトウェア資産の継承性が問われるIA-32では、EPICのようなアプローチは採用しにくい。これがHyper-Threadを生んだのかもしれない。また、今IA-32がIA-64と全く異なるアプローチを選んだということは、両者が融合するのは、かなり先になる、ということの証とも考えられる。
筆者にとって興味深いのは、BaniasとHyper-Threading Technologyが、Transmetaに対するIntelの回答のような気がすることだ。Crusoeに対する直接の回答は、Ultra Low Voltage版のPentium IIIだったわけだが、それはどちらかというと力ずくの回答であり、スマートさに欠けた(回答時間が足りなかった、ということは間違いないが)。プロセッサの低消費電力化という問いに対する回答がBanias、VLIWとCode Morphingによる互換性の維持と同時実行可能な命令数の増大という問いに対する回答が、Hyper-Threadingのように思える。IntelがIA-64において、VLIWに近いアプローチをとっている実績があるにもかかわらず、IA-32では異なるアプローチを採ったことが興味深い。
(2001年8月29日)
[Text by 元麻布春男]