イベントレポート

【Research@Intel 2013】
コードやバイナリの圧縮を可能にするDirect Compressed Executionなどをデモ

会期:2013年6月25日(現地時間)

会場:InterContinental San Francisco Hotel

 Intelの研究開発部門であるIntel Labsが研究開発の成果を発表するイベント「Research@Intel」が6月25日(現地時間)に、アメリカ合衆国カリフォルニア州サンフランシスコ市内のホテルで行なわれた。

 Intel Labsは、同社の製品部門から独立して将来を見据えた技術開発を行なっており、例えばAppleがMacBook Proに搭載して話題を呼んだThunderboltは、元は「LightPeak」の開発コードネームで同部門が開発した技術がベースになっており、Thunderboltの先祖にあたる技術はこのResearch@Intelで過去に紹介された。このように、将来Intelの製品に採用される技術が先行展示されるのがこのイベントだ。

 11回目を迎える今回も、いくつかの注目技術が紹介されており、そうした中からPC Watchの読者に関係ありそうな技術を中心に紹介していきたい。

運転手の脳波や目の動きなどをチェックして事故を未然に防ぐデモなど

Intel CTO(最高技術責任者)のジャスティン・ラトナー氏

 冒頭の講演には、Intel Labsの責任者でIntel CTO(最高技術責任者)のジャスティン・ラトナー氏が登壇し、Intel Labsの現状やResearch@Intel 2013の見所などについての説明を行なった。

 ラトナー氏によれば、今回のResearch@Intel 2013は、大きく次の4つのテーマに分かれているという。

・Enriching Lives(豊かな生活)
・The Data Society(データ社会)
・Intelligent Everything(インテリジェント化)
・Tech Essentials(不可欠な技術要素)

 Enriching Lives(豊かな生活)では、人々の生活をシンプルかつ質を高めるような技術のデモが行なわれている。例えば未来のショッピングでは、店舗内での買い物客の場所を検知し、その顧客が有益なショッピングができるように提案を行なったりできるというデモなどが行なわれた。

 The Data Society(データ社会)では、ビッグデータを活用してユーザーに対してより有益なサービスを提供する取り組みの限界を破る取り組みが行なわれている。大量のデータの中から、特定の個人が必要なデータを即座に取り出して提供するなどのデモが行なわれた。

 Intelligent Everything(インテリジェント化)では、主にセンサーを利用した技術が紹介され、センサーをより活用することで、どんなアプリケーションが考えられるのかが提案されている。例えばスマートホームのデモでは、赤ちゃんの様子をWebカメラで監視し、何かが起きた場合には、両親の寝室のアラームを鳴らすといったことがデモされた。

 Tech Essentials(不可欠な技術要素)では、主に半導体関連の技術で、将来のIntelのプロセッサに採用される可能性があるさまざまな技術がデモされた。

 こうした中から、ラトナー氏は特にいくつかのデモを取り上げた。1つは昨年(2012年)のResearch@Intel(別記事参照)で公開した、雨中で車を運転している時にヘッドライトの反射を抑える技術の応用で、今度は雪の中の運転でヘッドライトの反射を抑えることに成功したビデオを公開した。雨中でヘッドライトの反射を押さえる技術は、雨の落下を予測し、それに併せてライトの角度を微妙に変えることで反射を低減しているのだが、それを雪にも採用しているという。ラトナー氏は「雨の軌跡の予測は比較的簡単なのだが、雪は難しかった。だが、アルゴリズムを改善することでそれを実現した」と述べ、将来的にはこうした技術を自動車メーカーに対して提案していきたいとした。

 また、運転手の反応をコンピューターがチェックする「Be Understood」というデモでは、人間の頭に取り付けたセンサーを利用して脳波の変化を、ハンドル部分に取り付けたステレオカメラで目の動きなどを検知することで、運転時の最大の不確定要素である運転手の動きを常にチェックする。例えば、どうも眠たいようだということが分かれば、運転手に対して警告を出したりということが可能になる。また、昨今日本では飲酒運転が大きな社会問題になっているが、この技術を利用すれば運転手が酔っていることなどをチェックすることが可能になる可能性もある。事故を未然に防ぐ技術の1つとしての研究を進めているということだった。

今年のResearch@Intelでは大きく4つの分野にフォーカスした研究発表が行なわれた
Intel Labsの研究は、Intel社内だけでなく大学との産学協同で行われている
昨年のResearch@Intelで発表された雨中でヘッドライト反射を低減する研究
今年は雪中でのヘッドライトの反射を改善する様子がビデオで公開された。こちらは改善前
こちらは改善後、反射が明らかに少なくなっており、道がより見やすくなっていることがわかる
Intel Labs主任研究員ポール・クローフォード氏(左)が「Be Understood」のデモを説明
クローフォード氏が手に持っているのが脳波を測定するセンサー
デモで利用されていたセンサーを内蔵したヘッドギア。このまま公道で利用したら確実に職務質問を受けそうだが……
職務質問を受けないようにというわけではないとは思うが、ヘッドギアはバンダナで隠してドライブしているところ
ハンドル部分にはステレオカメラが実装されており、人間の目の動きなどを検知している。
カメラやセンサーから得られた情報を元にコンピューターが解析を行なう。疲れていると判断したらそのように運転手に伝えたり、飲酒して運転していると判定したら車を自動で停止するなどの措置が可能になるという

コードとバイナリの圧縮を実現するDirect Compressed Execution

 CPU関連で注目の技術はDirect Compressed Executionと呼ばれる技術だ。一般的にCPUが命令を実行する場合には、ストレージから命令とデータを読み込んできてそれをメインメモリに展開し、命令がCPU内部にあるデコーダで内部命令へと変換してから実行する。

 PCのように強力なプロセッサを搭載している場合には、プロセッサとメモリやストレージが高速な内部バスで接続されているので、プログラムのサイズが多少大きくなっても実行速度にはあまり影響しない。しかし、モバイル機器向けのSoC(System On a Chip)などでは、メモリ容量が十分でなかったり、内部バスの帯域幅が十分ではないことが少なくない。そうした環境で、大きなプログラムを実行しようとすると処理速度が低下したり、負荷が高まり消費電力が増えてしまったりする。

 そこで、考えられたのがDirect Compressed Execution。分かりやすく言えば、ソフトウェアの実行ファイル(バイナリファイル)そのものを圧縮するという手法だ。ソフトウェアをコードからバイナリにする段階(コンパイル時)で圧縮をかけ、コードやバイナリ(実行ファイル)のサイズを小さくする。

 しかし、そのままでは実行できないので、CPUの内部に圧縮データを解凍するハードウェアエンジンを設け、そこで通常のバイナリに戻してからデコーダへ渡すという仕組みになっている。解凍はCPUの内部に追加される専用のハードウェアエンジンを利用することになるが、余分なプロセスが1つ入るので、5%程度の性能のペナルティは発生する可能性があるという。

 ただ、説明したIntelのエンジニアによればコードの種類などによるものの、圧縮により元の3分の2程度の大きさにすることができるという。このため、内部バスの消費を抑えることができ、メモリに展開する量も減らすことができるので、結果的に消費電力を抑制するなどのメリットがあるという。SoCに解凍エンジンを追加するだけなので、CPUの命令セットアーキテクチャには依存しないが、特にx86のようなCISC系のISAでは効果が大きいとのことなので、将来のIntelのスマートフォン向けのSoCなどで採用される可能性がある。

Direct Compressed Executionに利用されたデモボード。SoCに見立てたテストチップを利用してのデモ。テストチップはFPGAで、あくまで試作品。実際に製品に導入される際には、ハードウェアの解凍エンジンがSoCに内蔵されることになる
仕組みはこのようになっている。コンパイラで圧縮しバイナリを作成する。それを実行する段階で、SoC内部の解凍エンジンを利用して解凍し、デコーダーや演算器などに渡す
コンパイラを利用してバイナリを圧縮しているところ。このプログラムでは約60%のサイズになった。どの程度圧縮できるかはコードの書き方によっても変わってくるという。x86などCISCのISAのような複雑なISAであればあるほど効果が大きいとIntelのエンジニア

32nm CMOSで試作された64レーンのパラレルI/O

 現在PCやサーバー、HPCのI/OバスとしてはシリアルバスのPCI Expressが一般的に利用されている。また、Thunderboltでは、物理層に銅線に加えて光ファイバーが利用されるなど、近年では光ファイバーを利用してI/Oの研究や採用なども盛んになっている。もちろんIntelではそちらの方向も今後も進めていくのだが、それとは異なる方向の研究も行なわれている。今回のResearch@Intelでは銅線を利用した64レーンのパラレルI/O「Scalable Energy Efficient I/O」が紹介された。

 Intelの説明員によれば、データレーンは64レーンで、上り、下りそれぞれ36レーンで、そのうち4レーンは障害耐性(障害が発生したときへの備え)のために利用されることになるという。供給される電圧は0.6~1.08V間で変動し、ポートあたりの電力は0.8~2.6pジュール/bit(p=ピコは1兆分の1の単位で、ジュールはエネルギーの量)、ポートあたりの帯域幅は2~16Gbpsを実現するという。

 今回のデモでは、Intel Labsが試作した32nm CMOSで製造されたコントローラチップが利用されており、それぞれに送信側、受信側のコントローラが内蔵されている。チップ間は50cmのリボンケーブルで接続されており、トータルで1Tbps(レーンあたり16Gbps)の帯域幅を実現しながら、消費電力はわずか2.7Wという。

 PCI Express Gen3で500Gbpsを実現しようとすると、32レーンで7.7Wの消費電力が必要になる。Scalable Energy Efficient I/Oでは、電力を半分以下にしつつも帯域幅は倍になるので、電力効率は4倍以上だ。現在HPCやサーバーの世界でも、クライアントと同じように電力効率が追求される時代になっており、この差が、ラック単位、さらにはデータセンター単位で計算するともっと大きな差になってくる。

 なお、現時点ではこのScalable Energy Efficient I/Oが、すぐにPCI Expressを置き換えるというわけではなく、あくまで研究段階とIntel Labsの説明員は説明したが、将来的にPCI Expressの高速版として採用される可能性はあるだろう。

Scalable Energy Efficient I/Oのデモ。この2つのロジックボードの間が1Gbpsを実現し、消費電力がわずか2.7W
現在のPCI Express Gen3との比較。消費電力は半分以下になるのに、帯域幅は倍になる。
ラックマウントサーバーに入れると、実に960Wも差がつき、帯域幅は100Tbpsもの差が出る
試作されたコントローラとリボンケーブル。コントローラは32nm CMOSプロセスで製造されている
基本的な構造。それぞれの方向が36レーン有り、4レーンは障害耐性に利用される
リボンケーブルはパッケージ上に直づけされている
消費電力の特性。ピーク時(1Gbps)では2.7Wだが、帯域幅を抑えていけばもっと低電圧で動作させられるため、消費電力を下げることができる

未来のWiDiとなるThe Internet of Display

 The Internet of Displayというタイトルのコーナーでは、ディスプレイ技術に関するデモが行なわれた。特に注目だったのは、Wi-Fiを利用して複数の端末から1つのディスプレイに出力したり、逆に1つの端末から複数のディスプレイへと出力するデモだ。Wi-Fiを利用してディスプレイを出力する技術と言えば、IntelはIntel Wireless Display(WiDi)を開発しており、第2世代Coreプロセッサ(Sandy Bridge)以降のプロセッサで標準の機能として実装されている。

 現在のWiDiではソースとディスプレイが1:1である必要があり、複数のディスプレイに出力したり、逆に複数のソースから1つのディスプレイにまとめて表示したりすることはできない。これは、技術的にWiDiが、Coreプロセッサに内蔵されているビデオエンコーダを利用してデータを圧縮し、Wi-Fiに乗せて出力しているため、現状のエンコーダが1ストリームのエンコードにしか対応していないのでこうした仕様になっている。

 今回のデモでは、そうした問題を回避するため、圧縮はソフトウェアを利用してMPEG-4 AVCへの変換を行なっており、ソースとなるタブレットから出力された画面がWi-Fiを経由してノートPC上に集められ、ノートPC上で1つの動画にマージされてからディスプレイに出力されるという形になっていた。これはノートPCのCPU性能が一定以上あれば実現可能だが、CPU負荷が高くなるため、それ以外には何もできなくなってしまう。このため、実際に製品化がされる場合には、TVに内蔵されることになるレシーバー側に、複数の動画ストリームを受信したら、それを同時にエンコードして出力するエンコーダエンジンが要求されることになる。

 現在ある技術でも、複数のエンコーダチップをTVやレシーバーに内蔵させれば十分に可能だが、コストが上がってしまう。従って、実際に製品化する場合にはレシーバー側に複数のストリームを同時に処理できるエンコーダやデコーダチップが必要になるため、そうした機能を将来のプロセッサに統合するような研究も同時に行なっているとIntel Labsの説明員は説明した。

 そうした意味では、将来のCoreプロセッサやスマートTV向けのAtomプロセッサに、4ストリームの動画を処理可能なエンコーダエンジンやデコーダエンジンなどが内蔵されればこの技術は十分実現可能で、将来のCoreプロセッサに実装されるWiDiでそうした機能が実現される可能性があるだろう。

The Internet of Displayのデモ。4つのWindows 8タブレットの画面が1つのディスプレイに表示されている
右側のPCが4つの出力を受けているノートPCで、ノートPCのビデオ出力からTVに出力している。現在はPCだが、将来は現在のWiDiアダプタのようにHDMIに接続するCE機器のような形にする
現時点での仕組み。現在はストリームをIPで飛ばして、それをソフトウェアでデコードして表示しているが、将来的にはハードウェアでデコードするようにする
こちらは逆に1つのソースから2つのディスプレイに分割して表示している様子。こちらも現在ではソフトウェアで行なわれているので、性能的にはややもっさりしていたが、将来はハードウェアエンコーダを利用してできるようになる

センサーを活用したさまざまな新しいコンピューティングの形を追求

 昨今はスマートデバイスと呼ばれるスマートフォンやタブレットなどのパーソナルデジタル機器が1つのトレンドになっているが、そうしたエリアで注目の技術としてはPersonal Analyticsがある。

 これは分かりやすく言えば、次のようになる。スマートフォンなどユーザーが普段利用しているデバイスでユーザーの行動をログとして保存していく。例えば、どんな用語を使って検索したか、位置情報を利用してどんなお店に行ったかなどがサーバーへと保存されていく。その行動記録を、特定のアルゴリズムを利用して学習していき、ユーザーに対して「自動車がお好きなようですが、近くに自動車博物館がありますよ」などとスマートデバイスが(実際にはクラウド上のサービスだが)提案をしていく。GoogleがAndroidで提供しているGoogle Nowに近い機能だ。

 今回Intel Labsは画像認識と音声認識のハードウェアアクセラレーションを行なうSoCのテストチップを作成し、スマートフォンのカメラやマイクなどが拾った情報を画像認識、音声認識してサーバーへとアップロードして活用するデモを行なった。もちろんプライバシーへの影響は予測されうるので、どのようなデータを収集するかはユーザーが設定できるという。これを活用すると、例えば、いつも薬を飲んでいた人が、それを飲み忘れているとそれをスマートフォンが教えてくれたりするようになるという。

 このほか、スマートホームに関する提案も行なわれていた。とはいえ、スマートホームの取り組みというのは、すでに各社が行なっており、特に新しい研究提案というわけではない。Intel Labsが今回提案したのは、各社バラバラに行なわれているスマートホームを、1つのミドルウェアにより相互に接続できるようにするというモノで、HTML5をベースにしたアプリケーションで、ハードウェアの違いを吸収して、どこのベンダーのスマートデバイスであっても、1つのホームネットワーク上で全て操作できるようになるというものだ。もっとも、これを実現するには、その標準化に参加する企業を増やす必要があり、そこはビジネスの領域になる。今回Intel Labsが公開したのはHTML5でできる、という提案だということだった。

 このほかにもセンサーを利用した展示は多く、Intel Labsがセンサーを活用した新しいコンピューティングの形を真剣に追求している様子がうかがえた。なお、Intelは実際の製品事業部でのビジネスにおいても、センサーを活用したPerceptual Computingと呼ばれる取り組みを行なっており、Ultrabookにタッチを必須にしたり、音声認識機能を奨励仕様にしたりと、積極的にPCやタブレットにそうした機能を実装している。今回のResearch@Intelでセンサー関連の展示が増えているのには、そうしたことも影響していると考えることができるだろう。

Personal Analyticsのデモに利用されたSoC。モバイル向けが意識されており、画像認識と音声認識のハードウェアアクセラレーション機能を内蔵している
ユーザーの嗜好などのデータがサーバーに蓄積され、それを元にサービスからユーザーに対してさまざまな提案がされることになる。未来は、行きたいお店はすべてスマートフォンが勝手に考えて教えてくれる? かも。
センサーデータを保護する仕組みのデモ。ユーザーの嗜好などがサーバーに保存されると、それらのデータをどのように保護するかが重要になってくる。そこで、VTの仕組みを利用して、OSとは別のメモリ空間でセンサーデータの保護を行うことで、ハッカーなどにセンサーのデータを盗まれないように保護する
スマート社員証のデモ。E-inkのディスプレイを備えており、NFCやBluetoothなどを利用して予定表を転送したりということも可能な他、PCのログインの鍵としても利用することができる
スマートホームのデモ。Intel Labsが研究しているのはミドルウェアの部分で、HTML5を利用したアプリケーションで、電気をつけたり消したり、スピーカーをつけたり消したりなどをタブレットからデモしていた。このほか、ゆりかごにカメラをつけて子供の様子を管理するデモなどが行なわれていた
投写型のタッチセンサー
Connected Vehicle Safetyでは前を走るスクーターのブレーキランプのLEDからの情報を受信して、前を走るスクーターの次の行動を予測することで、安全性を高める研究。
Wikipediaの人物の相関図をグラフィカルなグラフにする技術。こうしたグラフ化を高速に行うアルゴリズムが技術のキモなのだが、ネット通販の企業が顧客に対して顧客の好みの製品を表示させたりということに使われているという。

(笠原 一輝)