10回目を迎え“殿堂入り”研究成果を発表
会場となったYerba Buena Center for the Arts |
会期:6月25日~26日(現地時間)
会場:米国カリフォルニア州 サンフランシスコ Yerba Buena Center for the Arts
Intelの研究開発部門(Intel Labs)の成果を発表するイベント「Research@Intel」が6月26日、アメリカ合衆国カリフォルニア州サンフランシスコにあるYerba Buena Center for the Artsにおいて開催された。今回で10年目を迎える同イベントは、例年Intel Labsや、外部の大学との共同研究の成果などが発表され、過去には実際の製品につながった例もあり、PCユーザーにも大いに興味深いものとなっている。
イベントでは研究している分野を“ライフスタイル”、“未来の車”、“未来の職場”、“重要技術”、“持続可能社会実現”の5つに分け、数々の展示を行なった。また、同社CTO(最高技術責任者)のジャスティン・ラトナー氏は、大学との産学協同研究の拠点として設けている取り組み(Intel Science Technology Center、ISTC)に、ソーシャルコンピューティングの研究を設けたことを明らかにした。
●近未来にIntelの製品に採用されるかもしれない技術を研究Intel CTO(最高技術責任者) ジャスティン・ラトナー氏 |
今回も例年通り、Intel CTOのジャスティン・ラトナー氏による基調講演から始まった。
同氏は、まず産学協同に関する取り組みについて説明した。長年、Intel Science Technology Center(ISTC)という取り組みを行なっており、米国だけでなく、ヨーロッパ、イスラエル、台湾などを含むグローバルな大学の研究所と共同でさまざまな研究を行なっている。ラトナー氏は「共同研究の成果実際に実用化された例もある」と、実際の製品にも採用されるような成果も出ていると述べた。
その上で、ISTCの7番目の拠点としてISTC-Socialと呼ばれるソーシャルコンピューティングを研究する取り組みを追加したことを明らかにし、ソーシャルメディアに代表されるような、デジタルを介した人同士のコミュニケーションや、より豊かなデジタル生活を送るといたことを、大学と協力して研究していくと説明した。SNSやモバイルコンピューティングの普及により、ソーシャルコンピューティングへの人々の興味は高まるばかりで、そうした未来のあり方を産学協同で研究することになる。なお、ISTC-Socialで共同で研究する大学としては、カリフォルニア州立大学アーバイン校、ジョージア技術大学、インディアナ州立大学、ニューヨーク州立大学などが指名された。
Research@Intelが今回で10回目を迎えることについても触れ、「今回、Intel Labsが研究した成果が具体的な製品につながった例として、10個の技術を『殿堂入り』に認定した。20~25個を選ぶのなら簡単だったが、10個だけを選ぶのは大変だった」と紹介。LightPeakが「Thunderbolt」になった例、メニーコアが「Xeon Phi」になった例、プラットフォームレベルの省電力がAtomプロセッサにつながった例を挙げた。展示会場にはHall of Frame(殿堂)と名付けられた「X」(ギリシャ文字で10)の形になっているディスプレイが用意されており、以下の10個の技術が紹介された。
【表1】Intel Labsの殿堂入りした技術 | |
最終製品のブランド名 | 開発コードネームなど |
Intel Smart Connect Technology | Always-On, Always-Connected |
Xeon Phi | Teraflops Research Processor |
Intel Wireless Display | Carry Small. Live Large |
Thunderbolt | LightPeak |
Atom | Low Power Architecture |
Intel VT(Virtualization Technology) | Vanderpool |
McAfee DeepSAFE Technology | Patmos |
River Trail Draft API | Data Parallel Extentions for JavaScript |
Intel Power Optimizer | Platform Power Management |
Intel vPro Technology | Robust Self-Healing System and Networks |
ラトナー氏は「このようにIntel Labsはさまざまな分野で研究開発を行なっており、将来的には実際の製品に搭載されることもある。そうした技術を今日紹介しているのでぜひ楽しんでいって欲しい」と述べ、今回展示された技術が遠い将来のモノばかりではなく身近な技術もあると説明した。
●Windows 8のConnected Stanbyに応用できそうなAlways-On-Always-Connected
基調講演の後には展示会場が開場され、Intel Labsの研究開発している技術を以下の5つのゾーンで公開した。
Yerba Buena Center for the Artsの内部に設置された展示会場。展示会場は5つのゾーンにわけられていた |
(1)重要技術(Essential Tech、主にコンピューティング関連技術)
(2)未来の車(My Car、未来の自動車の技術)
(3)持続可能社会実現(Sustainable Living、環境技術など持続可能な社会を実現するための技術)
(4)未来の職場(My Job、会社など職場で利用される技術)
(5)ライフスタイル(My Life、ユーザーの生活をより豊かにする技術)
PCユーザーに最も身近なコーナーとなっていたのが重要技術(Essential Tech)ゾーンだ。重要技術ゾーンでは、プロセッサの省電力技術、HTML5に3Dの機能を追加するプログラミングモデルなど、要注目の技術がいくつも展示されていた。
中でも興味深かったのは、“Always-On-Always-Connected”と呼ばれているデモだ。Always-On-Always-Connectedとは、常に電源が入っていてネットワークに接続されている状態を意味し、タブレットやスマートフォンはすでに実現している。タブレットやスマートフォンにもスリープモードが用意されているのだが、PCのスリープモードがメモリ以外の電源を切るタイプのメモリサスペンド(ACPIの定義でS3)であるのに対して、タブレットやスマートフォンではディスプレイ以外の電源は入った状態(ACPIの定義だとS0)をスリープモードと呼んでいるのだ。
この状態で比較すると、スマートフォンやタブレットはPCで言えば常に電源が入っているのと同じで、新着メールやSNSの更新があればユーザーがレジューム(実際にはディスプレイをオン)させるとすでにメールクライアントやSNSソフトなどに更新が受信されている状態にある。しかし、PCのメモリサスペンド(S3)はCPUの電源が切れているので、まず最初に新着などのアップデート作業を始める必要がある。そこに使い勝手の差があると言える。
そこで、Windows 8/RTでは、新しいスタンバイモードである「Connected Standby」が用意された。Connected Standbyは定期的にメールやSNSのアップデートなどをチェックしつつ、かつシステム全体の消費電力を16時間で5%の減少に抑える仕様が策定されている。この仕様をクリアするためには、S0のままの省電力では到底実現は難しいのだ。そこで、Windows 8のConnected Standbyでは、定期的にタイマーのようなものでPCをS3からS0へとレジュームしてメール受信やSNSの新着をアップデートして、再びS3へと落とす仕組みが実装されている。これなら、ほとんどの時間はS3になっているため、平均消費電力はS0を継続するよりもかなり低く抑えられる。ただし、こうした方式の問題点は、どれだけの頻度でS3からS0へとレジュームさせてメールやSNSの新着更新を行なうかだ。新着がほとんどない場合でも、時間が来ると1度S0に起こすわけで、効率はあまり良くない。
そうした課題を解決するのが、今回Intelが紹介したAlways-On-Always-Connectedという技術だ。簡単に言うと、EthernetやWi-Fiのコントローラに改良を加えて、流れてくるパケットを監視。そしてプッシュされてきたパケットによりメールやSNSの新着があるとわかった時のみ、PCをレジュームしてメールクライアントやブラウザで更新し、再びサスペンドするという仕組みだ。これにより、タイマーで起こすよりも効率が良い同期が可能になる。
ただし、現時点ではWi-FiとEthernetのみが対象になっており、あくまで利用用途は企業内やホームネットワークでの更新を前提としているということだった。もう少し頑張ってもらって、3GやLTEのモデムチップでも同様のことができるようになれば、Windows 8におけるConnected Standbyの実装がさらに便利なることが期待される。
●HTML5に3Dの機能を実装するプログラミングモデルの3D Web
Webブラウザ向けの言語であるHTMLは、インターネットを支える基幹技術の1つと言えるが、現在業界ではその新しいバージョンであるHTML5の導入に向けての作業が進んでいる。HTML5では、従来のHTMLでは不可能に近かったリッチなユーザーインターフェイスが実現可能になるため、特にモバイル用途や車載情報システムなどでのモバイルアプリケーションの次世代標準として期待されている。そうしたHTML5で書かれたアプリケーションで、GPUやマルチコアプロセッサを効率よく利用して、3Dの機能を実装したデモが“3D Web”だ。
この仕組みにはXML3Dと開発コードネーム「River Trail」で知られるオープンソースのJavaScriptエンジンが利用されており、ソフトウェア開発者にはHTMLのプログラミングモデルとして(一種のミドルウェアのような形で)提供され、ミドルウェアがハードウェアの違いを吸収してくれるのでソフトウェア開発者はハードウェアに関する知識がなくても、簡単にCPUやGPUで処理を並列実行できるHTML5アプリケーションを作成できるようになるという。これにより、HTML5で書かれたアプリケーションの中で、ハイパフォーマンスの3Dの機能を利用でき、デモではHTMLアプリケーションの中で3Dでレンダリングされた博物館を人が探検する様子をリアルタイムで操作できた。レイテンシが問題になるようなハイエンド3Dゲームは難しいかもしれないが、ちょっとした3DゲームであればHTML5で十分実現可能になる可能性があるだけに要注目と言えるだろう。
Webブラウザの中で3Dのアプリケーションが動作している | HTMLのソースを見れば、HTML5のコードで書かれていることがわかる |
“Optimal Mobile Experience”は将来のモバイル端末のエミュレーションモデルだ。デモでは、Intelの48コアの“Single chip Cloud Computer”(SCC)が利用されており、1つのアプリケーションに1つのコアが割り当てられる様子が公開された。プロセッサは、割り当てられているアプリケーションに応じてコア数、周波数、電圧などを自動でスケーリングし、必要な電力だけを消費するような仕組みが採用されている。これにより、例えば動作しているアプリケーションが少ないときには、コア数を最小限の1つだけにしたり、周波数を最低にして消費電力の増加を抑えることが可能になる。逆に性能が必要なときにはすべてのコアを有効にしたり、周波数を最大まで引き上げたりといった使い方が可能になる。もちろん、現時点ではモバイルにするのは難しく、このSCCもデスクトップPCのシャシーに入れられたマザーボード上で動作していた。将来的にはコアそのものがより低消費電力になれば、例えば4コアとか8コアとかのAtomプロセッサを作り、コアやクロック周波数などを負荷により増減したりといった用途に応用可能だろう。
“Ultra-Efficient Device”は、PCの電源回路に太陽充電パネルを直結することで、より効率よく充電するソリューション。通常は太陽光パネル→回路→ノートPC電源回路となるところを、太陽光パネル→ノートPCの電源回路と直結することで無駄を無くし効率よく充電できるようする。ほとんど屋内でノートPCが使われる先進国ではなく、電力が安定的に確保することが難しい発展途上国などでの利用を意識しているという。
●ヘッドライト光の当たり方を予測し雨中のドライブを容易にする技術
未来の車(My Car)ゾーンでは、自動車関連の技術の研究成果が展示されていた。“Re-imaging Routine Driving”では、自動車のハンドルにタッチパッドを組み込み、タッチパッドと音声認識で車を操作する様子が公開されていた。
未来のダッシュボードのデモ。車のハンドルにタッチパッドが組み込まれており、ナビの操作などがすべてタッチパッドで行なうことができる | ハンドル部分、ハンドルの右側にタッチパッドが組み込まれている | このように操作する |
車からのメッセージはヘッドマウントディスプレイの形でフロントガラスなどに表示される | 試作されたハンドルの裏側 |
“Seeing Through Rain”は、Intel Labsとカーネギーメロン大学の産学協同研究の成果で、ヘッドライトの光が雨に反射して運転しにくく感じる現象を減じる技術だ。ヘッドライトの内部に、カメラと撮影データを演算するプロセッサを内蔵させる。雨が降ってくると、カメラがそれを感知して雨が落ちてくる場所を予測し、雨があたる場所の光をオフにする。それにより落ちている水に光が直接当たらなくなり運転手の見やすさが大幅に改善されるという。光のオンオフは13msecと非常に高速で、運転手には光がチカチカしている感じを与えることはないという。
持続可能社会実現(Sustainable Living)ゾーンでは、主に石油枯渇など環境問題へ配慮しつつ、持続可能な社会を実現する取り組みを紹介していた。電気自動車の充電をタブレットでコントロールしたり、街中にセンサーを配置し、それを集中制御して渋滞をコントロールしたりといった展示が行なわれた。
持続可能社会実現ゾーンでは、街中にセンサーを置き、それをPCやタブレットで確認し、渋滞情報などを確認して回避するなどのデモが行なわれた。すでに日本のカーナビでやっている機能…… | 日産の電気自動車リーフの充電状況をタブレットで確認するデモ |
●未来の家は自宅の鍵がなくても、サイバーなドアが解錠してくれる?
未来の職場(My Job)ゾーンでは“Smart Meeting Assistant”のデモが行なわれていた。Smart Meeting Assistantは、近未来の電話会議の姿で、音声認識と言語翻訳の機能を組み合わせることで、異なる言語を話す人達同士が1つの会議に自分の言語で参加できるというものだ。やっていることは、NTTドコモがAndroidスマートフォンに提供している「メール翻訳コンシェル」や、モニターテスト中の「通訳電話サービス」などに近い。
具体的には英語を話す人が、Ultrabookを前に英語で話しかけると、音声認識が行なわれ文字となって表示される。それと同時に言語翻訳の機能を利用して世界各国の言葉に翻訳されるというアプリケーションが用意され、実際にその様子が公開された。英語から日本語へのデモをやってもらったのだが、英語の音声認識はそれなりの精度だったが、日本語への翻訳はほとんど意味がわからなかった。展示員によれば、現状では翻訳エンジンはGoogle翻訳程度のレベルとのことで、残念ながら実用にはほど遠いというレベルであるようだ。翻訳エンジンの精度を上げていけば、こうした姿も普通に見ることができるようになる時代がくるかもしれない。
ライフスタイル(My Life)ゾーンでは、ショッピングや家庭における生活などの未来のソリューションが展示されていた。実現が可能かどうかはともかくとして、格好良いデモだったのは“Life without key”というデモ。センサーに見立てたKinectが人を認識すると、ドアに見立てたタッチディスプレイに解錠のための画面が表示され、顔認証と指紋認証により認証されるとドアが開くという仕組みになっていた。その画面が無駄にサイバーで格好良く、エンターを押すと、指紋認証と顔認証の画面が表示されるのだが、円がぐるぐる回る様子はまるでSF映画の中のようだった。
このほか、アバターが自分の顔の動きをモーションキャプチャーして同じように動く“Avatar Video Chat”、センサーを利用して壁に投影したイメージを操作できる“Interactive Surfaces”などが展示されていた。
Interactive Surfacesでは壁に投影した画面をモーション操作で操作することができる。人間の動きはモーションセンサーで検知している | Life without keyのデモでは、人間がドアに近づくと、認証画面が表示される。指紋と顔認証で本人確認が行なわれる。キーレスのドアは確かに便利そうだ |
【動画】Life without keyの様子、画面がSF映画のようで格好良い |
こちらはPCへのパーソナライズを顔や体型などから個人を認証して行なうシステム。共有のリビングのPCなどで便利そうだ | Avatar Video Chatではアバターが顔の動きに合わせて動く。直接顔の動画を送るよりも、アバターのモーションデータだけを送るので、帯域の節約にもなるという。スマートフォンでも利用可能 |
(2012年 6月 27日)
[Reported by 笠原 一輝]