イベントレポート
“Adobe先生”が次世代のクリエイターをアシスト
~ディープ/マシンラーニングの機能をクラウドに統合したAdobe Senseiを発表
2016年11月4日 06:00
Adobe Systems(以下Adobe)は、11月2日~11月4日(現地時間)の3日間に渡り、米カリフォルニア州サンディエゴにおいて、プライベートイベント「Adobe MAX 2016」を開催している。
初日の11月2日(現地時間)には1日目の基調講演が行なわれ、Adobeがクラウドベースで提供しているクリエイターツールCreative Cloudの機能拡張として「Adobe Sensei(アドビセンセイ)」の提供を開始したことを明らかにした。
Adobe SenseiはクラウドベースのAIエンジンで、クラウドにある同社のサーバー上でマシンラーニング/ディープラーニングなどを活用して、クリエイターに各種の自動機能などといったクラウドベースの新しいクリエイターツールを提供していく予定だ。
また、昨年(2015年)のAdobe MAXでベータ版の導入を発表したWeb作成ツール「Xd」の最新パブリックベータ版「Project Felix」と呼ばれる2D/3Dを融合させたグラフィックスツール、さらにはデスクトップ/モバイルのLightroomと連携して動作するクラウドベースの写真管理・レタッチソフトとなる「Project Nimbus(プロジェクトニンバス)」などの概要を明らかにした。
AdobeのAIプラットフォームとして提供されるAdobe Sensei、コンテンツにフォーカス
Adobeの社長兼CEOであるシャンタヌ・ナラヤン氏は「今回は参加者が1万人を越え、過去最大のMAXとなっている。Creative Cloudを初めてリリースしてから5年間、多くの機能を追加してきたが、それはまだ始まりに過ぎない。Adobe Senseiでディープラーニング、マシンラーニングのパワーをCreative Cloudに追加していく」と述べ、これまでAdobeが行なってきたクリエイティブツールとしてのCreative Cloudの拡張の一環として、今回はディープラーニング/マシンラーニングなどを利用したAIのプラットフォームとなるAdobe Senseiを明かした。
Adobeは、Creative Cloudを導入した時には、従来はバラバラに提供されていたPhotoshop、Premiere Pro、Lightroomなどのデスクトップアプリを1つのスイートとして提供しただけだったが、その後BeHanceなどのコミュニティ機能、さらにはiOS/Android向けのモバイルアプリ、そして昨年はAdobe Stockと呼ばれるマーケット機能などを徐々に追加した。
今回発表されたAdobe Senseiは、それらの機能を拡張するためのインフラであり、IBMのWatson、Google TensorFlowなどのようなAIエンジンのAdobe版と言えば分かりやすいかもしれない。WatsonやTensorFlowがより一般的な使い方を考慮しているのに対して、Adobe SenseiはもっとコンテンツにフォーカスしたAIになる。なおSenseiは日本語の“先生”から来ており、先生は深い経験、知識と学びの精神を持ち合わせていると考えられるので、こうしたブランド名を付けたとAdobeでは説明している。
Adobe Senseiはクラウドベースで提供され、マシンラーニング、ディープラーニングを利用したコンピューティングの力を利用して、これまでのローカルコンピューティングでは実現できなかったような新しい機能を追加する。
例えば、デスクトップ/モバイルアプリ向けには写真を画像認識してフォトレタッチを自動化する機能をマシンラーニングの手法を利用して提供する。あるいはAdobe Stock向けには、ユーザーがアップロードした画像に近い画像を、マシンラーニングの機能を利用して膨大なストックフォトの中から見つけてくるなどの機能を提供する。こうした新しい機能の背後にいてユーザーの見えないところで処理を行なっているのがAdobe Senseiとなる。
Adobeによれば、Adobe SenseiはCreative Cloudの機能拡張に使われるほか、同社のパートナー、ISV(Independent Software Vendor)や開発者向けにも提供して、他社に対してもAPIなどの仕様などを公開していくことで、Adobe Senseiを利用した独自のサービスなどを公開していくことも可能になる。
Creative CloudのアプリでAdobe Senseiを利用
Adobe MAX 2016に合わせて、アップデートが開始されたCreative Cloud(2017年版)では、いくつかのアプリにAdobe Senseiを利用した機能が入っている。
Photoshop CC(2017リリース)で利用できる機能としては、Adobe Stockを使う時に、目的の画像をタグ(文字)ではなく、画像そのもので検索する様子がデモされた。例えば、光の反射などが思い通りではなく失敗してしまった撮影写真があったとする。その時に、Stockの検索機能にその画像をアップロードすると、クラウド側でその画像を画像認識し、マシンラーニングにより画像を解析して、その画像に近くてより品質が高い画像を発見してくれる。
その画像をそのまま、Photoshopから取り込んで、レタッチして望みの画像に仕上がれば、Photoshopから画像のライセンスを購入してウォーターマークを除去して商用利用する……そうしたことが可能になる。なお、Adobe Stockは9月から投稿機能が追加されている、そのアップロード時に自動で付くタグデータもマシンラーニングにより実現されており、おそらくその機能もSenseiベースだと考えられるだろう。
このほか、AdobeはUX統合デザインツールのXdのパブリックベータを開始したことを明らかにしたが、同時にそのUWP版を今年末までにベータ版としてリリースするとした。XdのUWP版は、Windows 10のペンやタッチに最適化されており、Windowsストアで公開される予定。なお、デモは先日発表されたばかりのSurface Studioを利用して行なわれた。
また、Adobeは2つのベータ版ソフト「Project Felix(プロジェクトフェリックス)」と「Project Nimbus(プロジェクトニンバス)」も発表した。
Project Felixは2D/3Dを統合的に扱えるデザインツールで、デザイナーが3Dに関しての知識があまりない場合でも、標準で用意されるアセット、ないしは今回のMAXに合わせて拡張されたAdobe Stockで提供される3Dのアセットを利用して、簡単に3Dオブジェクトをデザイン。そこに2Dの写真などを融合させて、手軽にフォトリアリスティックなCGを作ることができる。Project Felixは今年の末までにパブリックベータとして提供される予定で、まずは英語版が先行して提供される。
Project Nimbusは、写真管理・レタッチの統合ツールになる。機能としてはLightroom CC/Lightroom Mobileと同じような機能を持つが、最大の違いはクラウドベースになっていることで、クラウドにある写真を管理して、レタッチするためのソフトウェアとなる。iOS、Android、Windows向けのクライアントアプリが用意されるほか、WebブラウザからもWebアプリとして利用できる。
Lightroom CC/Lightroom Mobileと共存させることも可能で、今後はよりメインストリーム向けのサービスとしてNimbusを提供していきたい意向だと説明している。なお、Project Nimbusは詳しい時期は未定だが、来年(2017年)のどこかのタイミングでパブリックベータが開始される予定だ。