ニュース

次世代生成AI「Firefly」はオーディオ、ビデオ、3Dも生成。ロードマップが明らかに

ロサンゼルスで開催されているAdobe MAX

 米Adobeは10月10日(米国太平洋時間、日本時間10月11日未明)から、Creative Cloudサービスのユーザー向け年次イベント「Adobe MAX 2023」をカリフォルニア州ロサンゼルス市のロサンゼルス・コンベンションセンターで開催している。10日の午前中には、基調講演が行なわれAdobe CEO シャンタヌ・ナラヤン氏などの同社幹部が登壇して、新しいテクノロジーや製品などの紹介を行なった。

 この中で生成AIモデル「Firefly」の改良版となる「Adobe Firefly Image 2 Model」、「Adobe Firefly Vector Model」、「Adobe Firefly Design Model」を公開したほか、講演の最後で今後のロードマップとして「Adobe Firefly Audio Model」、「Adobe Firefly Video Model」、「Adobe Firefly 3D Model」という3つの新モデルの開発意向表明を行なった。

クリエイターを助けるツールを提供するというAdobeのスタンスは変わらないとAdobe CEO シャンタヌ・ナラヤン氏

Adobe CEO シャンタヌ・ナラヤン氏

 Adobe MAXの基調講演の冒頭に登壇したAdobe CEO シャンタヌ・ナラヤン氏は、「中心にいるのはクリエイターだ」という表現を何度も繰り返し、同社の「Firefly」ブランドで提供している生成AIが、クリエイターを助けて、生産性を向上させるためのAIだと協調した。

 Adobeは本年の3月にFireflyと同社が呼んでいる生成AIのモデルを公開し、Web上に生成AIツール(Firefly for Web)を公開し、Photoshopにもそうした生成AIモデルを活用した「生成塗りつぶし」(Generative Fill)のような機能を実装している。

 今回のAdobe MAXでは、そのFireflyの新しいモデルとしてAdobe Firefly Image 2 Model、Adobe Firefly Vector Model、Adobe Firefly Design Modelを公開し、その機能をベクターに拡張し、より高解像度でハイクオリティな画像を生成できるようにすると明らかにしている。

 ナラヤン氏は「今年はAdobeに限らずAIの年だ。我々は既に生成AIを3月に発表して以来、直近では30億イメージが既に生成したことを発表した。こうした生成AIを利用することで、創造性の大衆化を実現し、クリエイターの創造性を助けて、一緒にコンテンツを創造していく、そうした形にしていきたい」と述べ、生成AIがクリエイターの創造性を助けるものであり、その生産性を向上させることでクリエイターがさらに多くの作品を世に送り出し、これまでそうしたツールを使いこなせなかったために創造性が発揮できなかったような普通のユーザーでもクリエイターになれるようなツールに同社のCreative Cloudがなっていくのだと強調した。

一緒に未来を作っていこうとナラヤン氏

 ナラヤン氏は「クリエイターの創造性を助けるツールを提供するというAdobeミッションはこれまでもこれからも変わらない。クリエイターの皆さんと新しいデジタル体験を世に送り出していきたい」と述べ、生成AIの時代になっても変わらずAdobeがクリエイターの創造性をさらに発揮できるようなツールを提供していくという姿勢には何も変わりがないと強調した。

Adobeの生成AIモデル「Firefly」のロードマップ

Adobe デジタルメディア事業部門代表 デビッド・ワドワーニ氏

 Adobe デジタルメディア事業部門代表 デビッド・ワドワーニ氏は、Creative Cloudなど同社のクリエイターツールを統括する事業部の責任者で、Creative CloudやFireflyなどの同社製品に関する説明を行なった。

Fireflyに大きく焦点を当てた講演となった

 ワドワーニ氏は「30年前に弊社のラッセル・ブラウンなどが参加してPhotoshopが開発されて世に送り出された。その結果(アナログの)絵描きは死んだと言われるような状況になり、絵描きの生産プロセスは大きく進化した。生成AIの誕生も同じで、今後デジタルコンテンツの作成プロセス全体が進化していくことになるだろう」と述べ、Fireflyを始めとするクリエイター向けソリューションが、クリエイターの生産性向上に寄与すると強調した。

左の3つが今回のAdobe MAXで発表された3つのモデル、そして右の3つは今回開発意向表明があった3つのモデル

 講演の最後にもう1度登場したワドワーニ氏は今回Adobeが発表した新しい生成AIモデル3つ(Adobe Firefly Image 2 Model、Adobe Firefly Vector Model、Adobe Firefly Design Model)を紹介した後で、将来のロードマップとして「Adobe Firefly Audio Model」、「Adobe Firefly Video Model」、「Adobe Firefly 3D Model」という3つのモデルの開発意向表明を行なった。

 たとえば、Adobe Firefly Video Modelでは「テキストから動画」(Text to Video)という機能が用意されており、ユーザーがテキストでほしい動画の指示を出すことで動画を自動生成してくれる生成AIとなる。

 Adobe Firefly Audio Modelはそのオーディオ版、Adobe Firefly 3D Modelはその3Dコンテンツ版となり、それらが導入されると、生成できるコンテンツが増えることになる。

 たとえば、Premiere ProならAdobe Firefly Video Modelを利用して、実際にはないシーンの動画を生成して入れ、Adobe Firefly 3D Modelで言えばSubstance 3D Modelerなどでテキストの指示で3Dモデルを生成などの使い方が想定される。今回はAdobe Firefly Video Modelで動画が生成される様子などが公開された。

Adobe Firefly Video Modelの「テキストから動画」の例、青い海でその周りに岩がある……などと入力するとそれに応じた動画を自動生成

Creative Cloudの各種アプリケーションが公開される、Illustratorにテキストからベクターを生成する機能が追加

Adobe デジタルメディア担当シニアバイスプレジデント アシュリースティル氏

 Adobe デジタルメディア担当シニアバイスプレジデント アシュリースティル氏は「より効率の良いコンテンツ生成のプロセスは、調査、コンテンツ生成、制御、そしてコミュニティーでのやりとりという4つの段階でそれぞれの取り組みが必要だ。Creative Cloudではそれぞれの段階で必要なツールを提供している」と述べ、Creative Cloudでクリエイターが必要としている機能を提供していると強調した。

 そして、今回のAdobe MAXに合わせて導入された、あるいはAdobe MAXの前に導入された新バージョンのCreative Cloudアプリケーションのデモを行なった。

Photoshop

 Photoshopに関してはAdobe MAXに先だってバージョン25.0という新しいバージョンが提供されており、「テキストから画像生成」(テキストで指示して画像を生成してもらう機能)や「生成塗りつぶし」(実際にはない部分をAIが生成して画像を広げる機能)などの生成AI関連の機能が実装されていたという経緯があり、今回のAdobe MAXでは一部のベータ版だけに実装されている機能を除き新しい機能は発表されていない。

 今回の基調講演ではそうした「テキストから画像生成」や「生成塗りつぶし」機能のデモが行なわれた。

 なお、Photoshop for WebにFireflyを利用した生成AI機能が実装されるようになり、GoogleのChromebook Plusデバイスで利用することが可能になっている。

テキストから画像生成のデモ、草の部分を範囲指定して、道を生成する指示を出すとこの通り
生成塗りつぶしのデモ
Photoshop for WebがChromebook Plusでサポートされる

Lightroom

 クラウド版のLightroomに関しては今回のAdobe MAXに合わせて新しいバージョン7.0、Lightroom Classicに関してはバージョン13.0が導入されており、一眼レフの高級レンズなどを使わなくても背景などがボケているような写真にできる「ぼかし(レンズ)」(Lens Blur)機能、また、「HDRに最適化」というボタンが編集パネルに追加され、それを利用してHDRでの編集が行なえるようになっている。

「ぼかし(レンズ)」
HDRに最適化

Illustrator

 Creative Cloudのアップデートでもっとも大きなアップデートがIllustratorになる。Illustratorはバージョン28にアップデートされ、今回のAdobe MAXで発表されたFireflyのベクターモデル「Adobe Firefly Vector Model」を利用して、「テキストからベクター生成」機能が用意されている。

 ほかにも、ビットマップデータからテキストからフォントを素早く識別して編集可能にする「リタイプ」(Retype)、画像やグラフィックスからリアルな外観の商品写真にできる「モックアップ」などのデモが行なわれた。

 また、これまではデスクトップ版とiPad版しか用意されていなかったIllustratorにブラウザで利用できる「Illustrator for Web」が追加され、なんらかのIllustratorのライセンス(Illustrator単体やCreative Cloudコンプリートプランなど)を持っているユーザーがフル機能を利用することが可能になっている。

リタイプのデモ
テキストからベクター生成のデモ。飛行機と入れることで、飛行機のベクターデータをAIが自動生成してくれる、生成したイメージはベクターデータなので、自由に編集可能

Premiere Pro

 Premiere Proに関してもバージョン24.0が今回のAdobe MAXに合わせて公開されている(同時にMedia Encoderもバージョン24.0に更新されている)。そのPremiere Proではテキストベースの編集が強化され、ベータ版としてオーディオのノイズ除去機能が用意された。今回はテキストベースの編集とオーディオのノイズ除去のデモなどが行なわれた。

テキストベースの編集

コンテンツを生成する能力は21世紀のビジネスパーソンにとって必須能力に

Adobe デザインおよび新興製品担当エグゼクティブバイスプレジデント兼CSO(最高戦略責任者) スコット・ベルスキー氏

 基調講演の後半ではAdobe デザインおよび新興製品担当エグゼクティブバイスプレジデント兼CSO(最高戦略責任者) スコット・ベルスキー氏が登壇し、同社がプロシューマーと呼ばれるようなプロと一般消費者(コンシューマ)の間に位置する、クリエイターまではいかないが、コンテンツを生成する能力を持つユーザーや、企業内でマーケティングを担当するようなユーザーに向けたWebアプリやPWAとなる「Adobe Express」を紹介し、デモを行なった。

Adobe Express
Adobe Expressのデモ、英語から複数の言語に自動翻訳

 Adobe Expressには、Photoshopなどにも搭載されている「生成塗りつぶし」と「テキストからテンプレート生成」(ベータ)などが追加されているほか、「自動翻訳」機能なども追加され、作成したコンテンツの言語をほかの言語に自動翻訳することなどが可能になっている。

 ベルスキー氏は「これからの企業のコンテンツ活用には2つのやり方があると考えられている。1つは以前からあるマクロ・マーケティングで、企業全体のレベルでプロフェッショナルなクリエイターによる企業ロゴやコンテンツを作成し、それを大規模に展開していく形となる。

 それに対して、アジャイル・マーケティングという新しい考え方では、テンプレートや生成AIのようなツールを活用し、ツールを使ってよりソーシャルにマーケティングを展開していくことになる」と述べ、今後は従来の組織全体で、たとえば本社広告部やマーケティング部主導で行なわれているようなマクロ(全体)なマーケティングだけでなく、地方の支社や部署単位で、企業全体のルールを守りながら小規模にアジャイルに行なわれていくマーケティングが流行になっていくだろうと指摘した。

 そうした時に、プロのクリエイターではなくても、手軽にコンテンツを編集したりするツールが必要で、それがAdobe Expressであり、Adobeのデジタルマーケティングのツールである「Adobe Experience Cloud」などと組み合わせて利用することで、より小規模の部署でもターゲットとなる特定の顧客層にカスタマイズしたコンテンツを、生成AIを活用して作成し、SNSなどで展開していくなどが可能になると強調した。

 ステージに戻ったAdobeのワドワーニ氏は「こうしたクリエーティブな表現する能力は21世紀の必須スキルになるであろうということを、教育官界の皆さんにお伝えしたい」と述べ、今後こうしたクリエイター系のツールを使いこなす能力は、現在ビジネスパーソンが当たり前のようにWordやExcelといったオフィス系ツールを使いこなすのと同じような必須の能力になっていくと指摘し、今後はビジネスパーソンもExpressのようなコンテンツ作成ツールを活用してコンテンツを生成していく能力が求められるようになっていくだろうと予測した。