笠原一輝のユビキタス情報局

進化するAdobe Sensei、目指すところは「タイムコンシューミングタスク」を減らすこと

〜画像に改変履歴を残すContent Authenticity InitiativeをPhotoshopに実装

Adobe MAXで発表されたCreative CloudアプリのAdobe Sensei由来のAI機能(出典:Adobe MAX 2020記者説明会、Adobe)

 Adobeは、同社が提供するサブスクリプション型クリエイターツール「Creative Cloud」のユーザーや開発者などを対象に行なっている年次イベント「Adobe MAX」を10月20日(現地時間)から開催した。この中でAdobeはCreative Cloudの新機能などを発表したが、その中でも大きな目玉となったのが、同社のマシンラーニングベースのAIプラットフォーム「Adobe Sensei」により実現される各種のAI機能だ。

 Photoshopに実装された「ニューラルフィルター」と「空の置き換え(Sky Replacement)」、Premiere Proに実装された「コンテンツに応じた補正(Contents Aware Fill)」や「自動字幕付加」など多岐にわたっている。

 今回筆者はAdobeのAI開発をリードするAdobe Sensei開発担当副社長 スコット・プレヴォスト氏にお話しを伺う機会を得たので、Adobeがどのような方向を向いてAdobe Senseiの開発を行なっているのかなどについて紹介していきたい。

AIを利用した「ニューラルフィルター」と「空の置き換え」

Photoshopバージョン22に搭載されたニューラルフィルターの説明(出典:Adobe MAX 2020記者説明会、Adobe)

 今回、もっとも大きな強化がされたのがCreative Cloudのフラグシップツールである「Photoshop」だ。今回のアップデートでPhotoshopはバージョン22へと進化されており、いくつかの新機能が追加されている。その代表例が「ニューラルフィルター」と「空の置き換え」の2つの機能になる。

 ニューラルフィルターは、「フィルター」という名前がついていることからもわかるように、Photoshopで一般的に使われているぼかし、シャープ、変形、ノイズといった画像に各種の効果を追加するフィルター機能の新しいフィルターという扱いになる。

ニューラルフィルターを起動したところ、最初はデータをダウンロードする必要がある

 ニューラルフィルターを起動すると、いくつかのフィルターが表示される。例えば「肌をスムーズにする」、「スタイルの適用」などが表示される。肌をスムーズにするは最近スマートフォンのインカメラに標準搭載されているような、肌をつるつるにする機能のことだ。AIエンジンがターゲットとなる人を自動で認識して肌をスムーズにする。「スタイルの適用」は画家が書いたようなタッチに画像を変更するツールだ。たとえば、ピカソ風にしたり、ゴッホ風にしたりということをAIエンジンが自動で考えてフィルターをかけてくれる。

年齢のスライダーを加齢側にふると現在よりも老けた画像ができる、スライダーを動かすだけだ

 このほかにも、スマートポートレートでは「笑顔」や「驚き」などにすることが可能だし、被写体の齢をより取らせたり、そういった処理が可能だ。他にも「メイクアップを適用」(被写体に化粧を追加する)、「深度に応じたかすみ」(画像の深度を計測して適した霞の追加などを行なう)、「カラー化」(モノクロ写真に色を追加)、「スーパーズーム」(画像の劣化を抑えて拡大)、「JPEGノイズを削減」(JPEGへの圧縮時に発生するノイズを削減)などの機能がすでに実装されている。今後さらにノイズの軽減などの機能が追加される予定で、機能としてのタブが用意されている。

スーパーズーム
JPEGノイズ削減

 「空の置き換え(Sky Replacement)」は、画像の空を置き換えて、さまざまな効果を与える機能になる。スマートフォン向けに提供されているPhotoshop Camera(PsC)にも採用されている機能で、PsCでは昼の空を夜に変えるなどのざっくりとした機能になっているが、プロ向けのツールであるPhotoshopに搭載されているのは、より詳細な設定ができるようになっている。

 基本的な機能は、まず画像を解析して空を切り取り、別の空に置き換える。空のチョイスは「青空」、「夕暮れ」、「壮観」などが用意されており、好みのものを選び、色温度や明度、さらには前景の調整などが可能になっている。

空の置き換えではメニューから選ぶだけ
表示されている空からよさげなものを選ぶだけ
変えるのはワンタッチで選ぶだけ
中央に表示されているクレーンの背景に透過している部分もきちんと処理されていることに注目

 使ってみるとわかるが、空の部分の切り取りがとても優秀で、このかつての高雄駅の駅舎の写真では屋根の上にのっているクレーンのような物体もきちんと切り抜かれており、そのクレーンと建物の間にある空もきちんと置き換えられている。こういうところは人間が指定しようとすると非常に時間がかかる部分であり、それがワンタッチできちんと指定できているのはさすがマシンラーニングのメリットということができるだろう。

動画でもAdobe SenseiのAIが活用されている(出典:Adobe Sensei -Amplifying Human Creativity、Adobe)

 なお、これ以外にも、Premiere Proでは「コンテンツに応じた補正(Contents Aware Fill)」が実装され動画から特定の被写体だけを抜き出したり、「テキストの書き起こし」では動画の音声から音声認識を行ない自動で字幕を作る機能が実装されている。テキストの書き起こしは現在ベータ版で、ユーザーが音声から文字への変換機能を使えば使うほどマシンラーニングベースのAIエンジンは鍛えられて賢くなっていき、正式版としてリリースされることになる。

Adobe Senseiの目指すところは「タイムコンシューミングタスク」を減らすこと

AdobeのアプリケーションにAIを提供する基盤となっているAdobe Sensei(出典:Adobe Sensei -Amplifying Human Creativity、Adobe)

 こうしたAdobeのAI機能のベースになっているが「Adobe Sensei」だ。Adobe Senseiはそれ自体が製品というわけではなく、AIエンジンとしてAdobe製品のプラットフォームとして動作する。エンジンそのものは、クラウドにおかれて常時学習や推論などを行ない、日々AIエンジンとして進化している。

Adobe Sensei開発担当副社長 スコット・プレヴォスト氏

 Adobe Sensei開発担当副社長 スコット・プレヴォスト氏は「我々はAdobe Senseiを2016年に発表して以来徐々に強化してきた。我々のCEOがAdobe MAXの基調講演でお話しさせていただいたように、その目的はタイムコンシューミング(筆者注:時間消費)なタスクを減らしていくことだ」と述べ、AdobeがAdobe Senseiに投資を行ない、その機能を拡張し続けているのは、クリエイターの時間を奪っていた作業をAIに代替させ、クリエイターの生産性を上げるためだと述べた。

 Adobeは2016年にAdobe Senseiを発表したときから一貫してこのことを強調している。Adobe Senseiはクリエイターにとって変わるモノではなく、クリエイターを助けるためだということだ。つまり、クリエイターの創造性をAIが代替するのではなく、創造性を発揮するために、マニュアルでやると時間がかかる作業はAIがあり、クリエイターはデザインそのものなど創造性が必要となる作業に注力する、そういうことだ。

被写体を選択の機能、中央の「被写体を選択」のボタンを押すだけで、このように主要な被写体を切り出してくれる。これまでは数分から10分程度かかっていた作業が数秒で終わるようになる

 その非常にいい例は、昨年(2019年)のAdobe MAXでPhotoshopに搭載された「被写体を選択」機能だろう。被写体を選択機能は、写真にある被写体の中から目立つモノを自動で選択してくれて、簡単に切り抜くことができる機能だ。

 被写体を選択が登場する以前は、クリエイターが投げ縄ツールなどを利用して写真からマニュアルで人を選択する必要があった。作業によるが慣れたクリエイターでも数分〜10分単位で時間がかかっていた作業だ。しかし、被写体を選択する機能を利用すると、これがわずか数秒でAIが自動で行なってくれる。かつ、今年のバージョンでは「髪の毛を調整」というボタンが追加され、こうしたAIの切り抜きが苦手な人間の髪の毛もばっちり切り抜いてくれるようになっている。

 プレヴォスト氏のいう「タイムコンシューミングなタスク」というのはまさにこうした作業で、あとは切り抜いた人物を別の画像に貼ってみたり、背景を変えたりということはクリエイターの「創造性次第」ということだ。

 プレヴォスト氏によれば、Adobe Sensei由来の数百のAI機能が、Photoshopを代表とするCreative Cloudのアプリにすでに採用されているという。今回のAdobe MAX時点でも多数のAIによる機能が追加されているが、今後もその拡張は続けて行くという。

 「今は3D、デザイン、自然言語などの機能拡張に注力している。将来的にはPhotoshopのほとんどの機能はAIでユーザーの負荷を削減できそうだと考えている」(プレヴォスト氏)というとおりで、今日明日にという話ではないが、近い将来にはPhotoshopに画像を読み込ませて、「Photoshop、プライバシーに関するデータをマスクしておいて」という命令を音声で出すだけで、写真に写っているクレジットカードの番号などをPhotoshopが自動でマスクしてくれる、そんな時代がいつの日かやってくるかもしれない。

客観的な「改変の記録」を残すことで悪意を持って画像を改変することを封じるContent Authenticity Initiative

Content Authenticity Initiative(出典:Adobe MAX 2020記者説明会、Adobe)

 その一方で、Adobeは今回のAdobe MAXでもう1つ重要な発表を行なっている。それが「Content Authenticity Initiative」機能のPhotoshopへの実装計画だ。

 Content Authenticity Initiativeとは、Adobeが、ニューヨークタイムズ、Twitterなどと立ち上げたコンソーシアムで、要するに画像に編集履歴を付加することで、閲覧者がその画像がフェイクではないことを確認する仕組みだ。今回Adobeが行なったデモでは、PhotoshopにこのContent Authenticity Initiativeに準拠した改変の履歴を付加する様子が公開され、今後行なわれるクローズベータテストで各種のテストが行なわれることが明らかにされた。

Adobe、ニューヨークタイムズ、Twitterが始めたContent Authenticity Initiativeだが、現在では業界各社が参加している(出典:Adobe MAX 2020記者説明会、Adobe)

 今回のデモでは、Photoshopで何らかの改変を行なうたびに、その改変の記録を画像にデータとして付加していき、その画像の履歴をクライアントのツールから確認できる様子などが示された。

 たとえば、Twitterに投稿された画像が、フェイクなのかそうではないのかは、TwitterクライアントなどにContent Authenticity Initiativeの履歴を確認する機能が実装されれば、撮影された後、明るさが変えられて、いないはずの人が追加されたなどの履歴を確認することができる。Twitter投稿者がそうしたフェイクの写真を投稿しても、Content Authenticity Initiativeの履歴を確認すれば見破ることができる仕組みになる。

Adobe Creative Cloud担当上級副社長 兼 CPO(最高製品責任者) スコット・ベルスキー氏

 フェイクを作ることができるツールを提供しているAdobe自身が、フェイクを見破る仕組みを提供することに対して、Adobe Creative Cloud担当上級副社長 兼 CPO(最高製品責任者) スコット・ベルスキー氏は「Adobeとしてはこうした仕組みを提供することが社会責任だと考えている。Twitterにはアカウントのベリファイマークの仕組みがあるが、それをコンテンツに対して提供していく仕組みと言ってもいい」と述べ、こうした写真を改変できるツールを提供しているAdobeだからこそ、不当にそれを改変していることを見破る仕組みを提供するのだと説明し、Adobeが提供するクリエイターツールと、フェイクのない世界は両立するのだと強調した。

 筆者もベルスキー氏の言うところに賛成だ。クリエイターツールはあくまで価値中立であり、それを利用してよりよいイメージを作成して素晴らしいデザインを作り上げあり、よりアーチスティックな作品を作り上げたりもできるし、その逆に悪意があるフェイクのイメージを作成することもできる。つまり、どう使うかはあくまで人間次第だ。それならば、悪意を持って使おうとする人の悪意を封じる仕組みを用意するのが現時点では正しい解だと思うので、Content Authenticity Initiativeの仕組みがPhotoshopに搭載されるというのは良いニュースと言える。

 ただ、すでに写真という言葉の意味はもはや定義を変えないといけないかもしれない。編集された写真は真を写していないのは明らかだからだ。日本語という言葉の定義の問題であるが、写真というのはカメラが撮った画像だけに限定して、Photoshopのようなツールを通した後のイメージは画像とか別の呼び方をするなどの議論を真剣にする時期に来ているのかもしれない。