後藤弘茂のWeekly海外ニュース

センサーハブによって変わるモバイルとそれを統合するウェアラブル

モバイル機器は常時オンが必須になりつつある

 かつて、携帯電話のチップは、信号処理を行なうベースバンドプロセッサと制御を行なうMCU(マイクロコントローラ)の組み合わせだった。MCUは性能が限定されたプロセッサであるため、電力消費も抑えられていた。ところが、携帯電話が高機能化する過程で、内蔵するMCUは、アプリケーションを走らせるだけの性能を備えたアプリケーションプロセッサ(AP)へと進化。さらに、スマートフォンへと進化する段階で、アプリケーションプロセッサコアはローエンドのPC向けプロセッサに迫る高性能になった。また、APだけでなく、カメラ用イメージプロセッサやGPUコア、ビデオプロセッサなども含む統合的なSoCへと拡張された。現在では、アプリケーションプロセッサはSoCの中のごく一部となっている。

 また、モバイルSoCでは、物理設計上も、アプリケーションプロセッサ部分に高性能のセルライブラリを使い、高速な低しきい電圧(Vt)トランジスタをクリティカルパスに使うなど、性能は高いが電力消費も多い実装へとシフトした。そのため、モバイル向けのSoCは、超低電力MCUとは全く異なるチップになってしまった。現在のモバイルSoCでは、使わないコアやユニットはスリープすることで平均消費電力を抑えてバッテリ駆動時間を延ばしている。

 ところが、モバイルデバイスに要求される機能の変化が、高性能へと進化したスマートフォンとモバイルSoCにトラブルを招き始めた。スマートフォンに“Always On(常時オン)”機能が要求されるようになって来たためだ。継続的なセンサーデータの処理やデータ受信のため常に稼働することが求められつつある。こうした処理を、従来通り、メインのモバイルSoCのアプリケーションプロセッサで処理しようとすると、消費電力が跳ね上がってしまう。

毎年恒例のThe Linley GroupによるLinley Tech Mobile Conference 2014のキーノートスピーチのスライド

 今年(2014年)4月に開催されたプロセッサカンファレンス「Linley Tech Mobile Conference 2014」のキーノートスピーチでは、カンファレンスを主催するLinley Gwennap氏(Principal Analyst, The Linley Group)がこの問題を大きく取り上げた。上のスライドでは、歩数計アプリが歩行のトラックを常に行なうことや、ナビゲーションやロケーションベースサービスが位置情報を常時トラックすること、クラウドサービスからのプッシュデータがバックグラウンドで受信されることなどが指摘されている。また、Moto XのウエイクアップジェスチャやGoogleのボイスアクティベーションなど、ナチュラルユーザーインターフェイス(NUI)の進化によって、スマートフォンが常にユーザーの動作や音声を検知する必要が出たことも原因として取り上げられている。

時代はセンサーハブの搭載へ

 低消費電力の常時オンを要求するスマートフォンの新機能と、ピーク性能に最適化された高消費電力のモバイルSoC。この2つの矛盾を解決するために、半導体チップ側はすでにソリューションを提供している。モバイルSoCから「センサーハブ(Sensor Hub)」チップへとオフロードすることで、低電力で常時オンを実現しようとしている。センサーからのデータ処理を専門に行なうセンサーハブは急速に浸透しつつあり、来年(2015年)にはモバイル機器では必須の機能となると見られる。

Linley Tech Mobile Conference 2014のキーノートスピーチで示されたセンサーハブの重要性

 10月に米サンタクララで開催されたARM Techconでも、スマートフォンの常時オン化とセンサーハブの必要性は技術セッションで詳しく取り上げられた。現在、ハイエンドスマートフォンに搭載されているセンサーの数は12〜16個にも達しており、それらセンサーを使う場合のデータ処理の頻度は極めて高い。例えば、iPhoneとGalaxy Sそれぞれの内蔵するセンサーは下のスライドのように増えている。

ARM Techconのセンサーハブのセッションで示されたハイエンドスマートフォンのセンサー数の増加
ARM Techconで示されたGalaxy Sシリーズのセンサーの変化

 現在のハイエンドスマートフォンに搭載されているセンサーは次のようになる。3軸のジャイロセンサー(Three-Axis Gyroscope)、3軸の加速度センサー(Three-Axis Accelerometer)、複数のマイク(Microphones)、環境光センサー(Ambient Light)、気圧センサー(Barometer)、温度センサー(Thermometer)、3軸の地磁気センサー(Magnetometer)、近接センサー(Proximity Sensor)、湿度センサー(Hygrometer)、磁気センサー(ホール効果:Hall Effect Sensor)、指紋センサー(Fingerprint Sensor)、さらに、今では心拍計(Heart Rate)まで加わっている。カメラやGPSシステムを除いてもこれだけの数のセンサーが搭載されている。そして、これらのセンサーを使うアプリも増えつつある。

センサーハブでセンサーからのデータを一括して処理

 センサーハブは、超低消費電力のMCUで、通常は内蔵のメモリで動作する。ARMのプロセッサならCortex-M0+からCortex-M3、Cortex-M4のレンジだ。将来的にはDSPを内蔵する製品も増えて行くと見られており、そうなるとDSP機能を強化したCortex-M7も視野に入るだろう。AndroidやiOSなどOS側もセンサーハブに対応しており、ソフトウェア層も整いつつある。

 センサーからのデータは、一括してセンサーハブチップに入力され、センサーデータのプロセッシングの多くはセンサーハブ内部で行なわれる。実際にはセンサー側にプロセッシング機能を持たせた製品も登場しており、その場合はHubとの間で機能の棲み分けが行なわれる。いずれにせよ、メインのモバイルSoCのアプリケーションプロセッサをスリープから起こすことなく、センサーハブまでの層でセンサーデータの基本的な処理を行なうことになる。

 センサーハブは、言ってみればFitBitのようなアクティビティモニタのMCUを、スマートフォンにサブチップとして搭載するようなソリューションだ。センサーハブは洗練されるに連れて消費電力がさらに下がっており、フルオペレーションで1mAを切る電流量の製品も登場している。アプリケーションプロセッサと比べると劇的な低電力で、そのためにスマートフォンのバッテリ駆動時間にインパクトを与えない。

 センサーハブチップが有名になったのは、Appleが昨年(2013年)の「iPhone 5S」の発表時に、メインのApple A7 SoCに加えて、M7(実際にはNXP LPC1800)と呼ぶセンサーハブチップを搭載してからだ。もっとも、それ以前に2012年からセンサーハブの搭載は始まっており、現在ではハイエンドのスマートフォンやタブレットでは珍しくないチップとなっている。今後はミッドレンジ以下への浸透が始まると見られている。

ウェアラブルではセンサーハブの統合へ

 しかし、センサーハブで面白いのは、これがウェアラブルやIoT(The Internet of Things)へと繋がっていることだ。身につけるウェアラブルデバイスは、本質的にセンサーセントリックで、初めからセンサーハブありきで考えられている。というか、発想的にはアクティビティトラッカーのようなセンサー機器からの発展形がウェアラブル機器だ。

 ウェアラブルではモバイル以上に電力とコストが問題となる。そのため、スマートウォッチのようなミッドレンジのウェアラブル機器向けのSoCでも、センサーハブをSoC側に取り込むことが想定されている。10月のARMの技術カンファレンス「ARM Techcon」では、ウェアラブル向けのSoCの設計としてセンサーハブ機能を取りこんだソリューションが示された。

 スマートウォッチなどミッドレンジウェアラブル向けSoCでは、アプリを走らせるメインのプロセッサはCortex-AやGPU、ビデオプロセッサで、これらのユニットは通常はスリープしている。それとは別にセンサーからのデータを処理する専用の常時オン(Always on)ユニットがあり、ARMならCortex-M系のコアで、こちらはセンサーからのデータが有る限り稼働し続け、センサーハブとして機能する。そして、メインのCPUやGPUは外付けのDRAMやNANDフラッシュを使うが、常時オンの側のCPUは内蔵のメモリを使い、外部アクセスの電力も減らす。これがARMの想定する、センサーハブ内蔵のウェアラブルSoCの姿だ。もっとも、センサハブのSoCへの統合にはハードルもある。例えば、エンベデッドのフラッシュメモリなどは枯れたプロセス技術でしか提供されていない。

 こうして概観すると、センサーハブが実はウェアラブルやIoTへと伸びて行く現在のITデバイスの中で重要な鍵となりつつあることが分かる。

(後藤 弘茂 (Hiroshige Goto) E-mail