ニュース
Google製スマホ「Pixel 2」は同社初の独自設計プロセッサを搭載
~画像処理と機械学習処理を高速実行しHDR+撮影を実現
2017年10月18日 13:37
Googleは、5日に発表した同社製スマートフォン「Pixel 2」について、公式ブログを公開した。
Pixel 2には、「Pixel Visual Core」と呼ばれる画像処理プロセッサが搭載されており、それによって薄暗い風景から快晴の空まで、さまざまな明るさのシーンで綺麗な写真を撮影できる「HDR+」テクノロジーを実現しているという。
同社では、バックグラウンドでHDR+を効率的に処理することで、複数画像を順に撮影できるようにPixel 2のアプリケーションプロセッサを使用するアルゴリズムを進化させたが、それと同時に、ハードウェアの開発にも取り組んでおり、サードパーティの写真アプリでもHDR+利用できるようにしたという。
作成されたのがPixel Visual Coreで、画像処理や機械学習処理を実行し、低レイテンシで電力効率の高いHDR+処理を実現するという。
Pixel Visual Coreは、コンシューマ製品向けとしてはGoogle初となる独自設計のコプロセッサで、Pixel 2シリーズ全製品で搭載する。今後数カ月で、Pixel 2のカメラを使って多数のアプリでHDR+写真が撮影可能になるソフトウェアアップデートが配信される予定だという。
Pixel Visual Coreの中心となるのは、Googleが設計した画像処理ユニット(IPU)。フルプログラマブルなドメイン固有プロセッサで、低電力で最大の性能を発揮するよう設計されている。IPUは、それぞれが512個の演算論理ユニット(ALU)を持つ、Googleが独自に設計したカスタムコア8基からなり、モバイル端末の電力規模で秒間3兆回以上の処理を実行できるとする。
HDR+処理で比較すると、Pixel Visual Coreを使用することで、アプリケーションプロセッサ上で実行するよりも5倍高速かつ、10分の1未満の電力で実行できるという。IPUの効率性は、ハードウェアとソフトウェアの緊密な連携によって成り立っており、Googleのソフトウェアでは、典型的なプロセッサよりもハードウェアを詳細に制御しているという。
ソフトウェア制御を強化したことで、従来のプログラミング言語を使用してIPUをプログラミングすることが困難になったが、同社ではこれを避けるため、画像処理用の「Halide」と機械学習用の「TensorFlow」と2つのドメイン固有言語を用いることで、開発者とコンパイラの負担を軽減しているとする。
Pixel Visual Coreは、今後数週間程度で開発者向けプレビュー版Android Oreo 8.1 (MR1)の開発者向けオプションとして利用可能になる予定で、その後、Android Camera APIを使用している全サードパーティアプリでPixel 2のHDR+テクノロジーが使えるようになるという。