ニュース

Google製スマホ「Pixel 2」は同社初の独自設計プロセッサを搭載

~画像処理と機械学習処理を高速実行しHDR+撮影を実現

Google製スマホ「Pixel 2」は同社初の独自設計プロセッサを搭載 Pixel Visual Coreの拡大画像
Pixel Visual Coreの拡大画像

 Googleは、5日に発表した同社製スマートフォン「Pixel 2」について、公式ブログを公開した。

 Pixel 2には、「Pixel Visual Core」と呼ばれる画像処理プロセッサが搭載されており、それによって薄暗い風景から快晴の空まで、さまざまな明るさのシーンで綺麗な写真を撮影できる「HDR+」テクノロジーを実現しているという。

 同社では、バックグラウンドでHDR+を効率的に処理することで、複数画像を順に撮影できるようにPixel 2のアプリケーションプロセッサを使用するアルゴリズムを進化させたが、それと同時に、ハードウェアの開発にも取り組んでおり、サードパーティの写真アプリでもHDR+利用できるようにしたという。

 作成されたのがPixel Visual Coreで、画像処理や機械学習処理を実行し、低レイテンシで電力効率の高いHDR+処理を実現するという。

 Pixel Visual Coreは、コンシューマ製品向けとしてはGoogle初となる独自設計のコプロセッサで、Pixel 2シリーズ全製品で搭載する。今後数カ月で、Pixel 2のカメラを使って多数のアプリでHDR+写真が撮影可能になるソフトウェアアップデートが配信される予定だという。

 Pixel Visual Coreの中心となるのは、Googleが設計した画像処理ユニット(IPU)。フルプログラマブルなドメイン固有プロセッサで、低電力で最大の性能を発揮するよう設計されている。IPUは、それぞれが512個の演算論理ユニット(ALU)を持つ、Googleが独自に設計したカスタムコア8基からなり、モバイル端末の電力規模で秒間3兆回以上の処理を実行できるとする。

 HDR+処理で比較すると、Pixel Visual Coreを使用することで、アプリケーションプロセッサ上で実行するよりも5倍高速かつ、10分の1未満の電力で実行できるという。IPUの効率性は、ハードウェアとソフトウェアの緊密な連携によって成り立っており、Googleのソフトウェアでは、典型的なプロセッサよりもハードウェアを詳細に制御しているという。

 ソフトウェア制御を強化したことで、従来のプログラミング言語を使用してIPUをプログラミングすることが困難になったが、同社ではこれを避けるため、画像処理用の「Halide」と機械学習用の「TensorFlow」と2つのドメイン固有言語を用いることで、開発者とコンパイラの負担を軽減しているとする。

 Pixel Visual Coreは、今後数週間程度で開発者向けプレビュー版Android Oreo 8.1 (MR1)の開発者向けオプションとして利用可能になる予定で、その後、Android Camera APIを使用している全サードパーティアプリでPixel 2のHDR+テクノロジーが使えるようになるという。

Google製スマホ「Pixel 2」は同社初の独自設計プロセッサを搭載 サードパーティーアプリで撮影した写真(左)とPixel Visual CoreによるHDR+写真(右)の比較
Google製スマホ「Pixel 2」は同社初の独自設計プロセッサを搭載 サードパーティーアプリで撮影した写真(左)とPixel Visual CoreによるHDR+写真(右)の比較
サードパーティーアプリで撮影した写真(左)とPixel Visual CoreによるHDR+写真(右)の比較