笠原一輝のユビキタス情報局

生成AIを推進しているAdobeが、米国の学習データ無断使用規制法案を支持するワケ

Adobeが提供している生成AI「Firefly」、3月18日~3月20日に米国で行なわれたAdobe Summitでは企業向けサービスの拡張などが発表された

 生成AIの登場は、IT業界の姿や形を変えつつある……そのことに異論があるIT業界の関係者はいないと思う。だが、今や生成AIが変えつつあるのはIT業界だけでなく、我々の社会全体を変えつつあると言っても過言ではないと思う。

 その一方で、産業の種類によってはAIによってその権利を侵害されていると感じている産業もある。たとえば俳優や声優、あるいはイラストレーターなどのクリエイター、あるいは筆者のような文筆業もその代表例と言えるかもしれない。そうした産業が生成AIを「危険」だと考えるのは、そうした産業が肖像権や著作権などの、既存の法律やルールに守られているためで、そうした法律などが生成AIの存在を前提としていないからだ。

 Adobeは一昨年(2023年)に「Firefly」を発表して以来、生成AI由来の機能を自社サービスに導入することに積極的に取り組んでいる。そうしたAdobeだが、米国の連邦下院議員が提案したAIが学習に利用するデータを制限する法案に賛意を表明しているという。生成AIから利益を得ているはずのAdobeが、そうした規制を積極的に受け入れるのはなぜなのだろうか?

声や、姿は誰のもの?生成AIの普及で俳優や有名人などが直面している新しい問題

 昨年(2024年)のことだが、声優の仕事をしている友人と生成AIについて議論する機会があった。声優の業界では生成AIのことが話題になっており、生成AIが簡単に自分たちの声を真似して、まるで自分が演じているようにできてしまうことが、自分たちの権利の侵害にあたるのではないかと感じているということだった。

 法律の専門家ではない筆者がこの問題を論じるのは最適ではないことをお断わりした上で説明すると、そもそも論として、現行法の枠組みの中で、声というのが法律で保護される対象なのかという点が重要な論点としてある。

 もちろん、声優が演じた映像や音声といったコンテンツは、明確に著作権法で保護される対象になる。しかし、それは作品に対してであり、声そのものではないというのがこのポイントだ(少なくとも現行の著作権法では、もちろん対象になる場合もあり、そのあたりは法律論で最終的には法廷で白黒つける話なので、概論としては、とお断わりしておく)。

 同じことは、筆者の書いているこの記事もそうで、どんなコラムニストであろうが独自の論点や文章のタッチがある。この筆者が書いた記事には著作権が設定され、著作権法上の保護の対象になるが、独自の論点、取材方法、文章のタッチなどは著作権法の保護の対象ではないことと同じだ。

 だが、声優の「声」は言うまでもなく、その声優固有の特徴であり、最大のセールスポイントだ。それが簡単に真似られてしまうようで、声優がビジネスとして成立しなくなると感じるのは、もっともだと思う。今までそれが問題にならなかったのは、そうしたことが、簡単にはできなかったからだ。

 しかし、生成AIが登場したことにより、それは簡単にできるようになった。生成AIのファウンデーションモデルが、ある特定の人の音声ファイルを元に学習することで、その人の声のトーンや話し方などをまねすることは容易だからだ。それを使えば、声優の声を真似してAIにしゃべらせることも可能だし、善意で使えばビデオ会議で日本語を英語にリアルタイム翻訳しながら本人の声で、英語の音声を相手に使って伝える使い方もできる。

 確かに、前者の使い方は明らかに声優という社会にとって有益なビジネスを破壊することになる。それは有益なコンテンツを求めている社会の利益に反しており、何らかの手段をもって防ぐべきだろう。それに対して後者は有益な使い方であり、今後もどんどん発展させていくことが社会の利益になる。

 そこで重要なことは、その議論をする上で、前者のために、後者も禁止するという安易な手段はとってはならない、ということだ。つまり、包丁が人を傷つけるにも、魚をおろすにも、どちらにも使えるように、技術そのものは価値中立であり、それを有益にするのも、有害にするのも使う人間次第だということだ。

 従って、前者のような人間の行ないだけを何らかの手段(具体的には立法措置など)で禁止するなりの議論を進めなければいけない、そういうことだ。

生成AIのコンテンツ活用で議論になるのは入力と出力だが、出力に関しては対策されつつある

Adobe 上級副社長 兼 渉外法務政府関係副責任者 カレン・ロビンソン氏

 Adobeで法律関連や政府との交渉などの責任者であるAdobe 上級副社長 兼 渉外法務政府関係副責任者 カレン・ロビンソン氏は「現在の生成AIで法律的に議論すべきは2つの論点がある。それが入力と出力だ。AdobeではFireflyを導入する時に、そのどちらもコンテンツの所有者の権利を尊重する決定を下し、それによりFireflyを商用利用可能だとお伝えしている」と述べ、Adobeが自身の生成AIモデルや生成AIサービスを導入するときには、クリエイターが商用利用(作成したコンテンツを利用して利益を得ても訴えられる可能性がないという意味)が可能であることを重視したと強調した。

 AdobeがFireflyコンテンツは商用利用可能だと強調する意味はシンプルだ。AdobeのビジネスはクリエイターにCreative Cloudなどのクリエイターツールを、有料で契約してもらう必要がある。従って、クリエイターが自分の手によってであろうが、生成AIが作ったであろうが、他者に販売するなどして利益を産まなければサブスクリプションの契約をしてはくれないだろう。だから、Adobeにとって「商用利用可能」と強調することは重要なのだ。

 ロビンソン氏が指摘した「入力と出力の2つの論点」というのは、生成AIを活用するには、「学習」(トレーニング)と、コンテンツを生成する「推論」(インファレンス)という2つのフェーズがあるからだ。生成AIに限らず、AIでは、大量のデータを用意して、それを利用してファウンデーションモデルに学習してもらう入力フェーズと、その学習済みのファウンデーションモデルを使って何らかの出力フェーズがあるということだ。

Fireflyを利用して画像生成を行なうPhotoshopに「フェラーリの車両」と指定してもフェラーリの車両は生成されない、ガードレールの機能が働いているからだ

 このうち、出力の方は、基本的に商標や著作権などの既存の権利を侵害しないようにする必要があり、Adobeの生成AIサービスに限らず、ガードレールと呼ばれるそうした他者の著作権や商標、あるいは道徳的に問題がある画像(たとえばポルノ画像)などを出力しないように制限している。

 たとえば、AdobeのFireflyに「フェラーリの車両」といれてもノンブランドの車両の写真が生成されるだけで、フェラーリの車両の画像は生成されない。それはガードレールの仕組みがきちんと機能しているからだ。このように、出力の方はサービスを提供する側がきちんと制御できるので、他者の著作権や商標などを阻害しないように仕組みができあがりつつある(すべてとは言わない、そうではないサービスだってないわけではない)。

 なお、仮にフェラーリが、Adobeのサービスを利用して自社の広告向けの画像を生成したいと思ったらできないのかと言えば、そうではない。その場合は法人向けに提供されているカスタマイズできるサービスを使うことで、自社の商標などを活用した画像を学習させて生成することは可能だ。

現在議論になっているのは入力と学習時のコンテンツ利用、コンテンツを利用した公正な学習とは何か?

OpenAIのサム・アルトマンCEO(2月に開催されたソフトバンクのAIイベントで撮影)

 このように、出力の方は著作権と商標権という現行法でカバーされている権利である程度カバーできるが、入力の方は話がもっと複雑だ。現状は、そうした著作権や商標権などの既存の権利でカバーできるのか定説も法律もないからだ。

 たとえば、LLMのようなファウンデーションモデルの学習は、多くの場合、インターネット上のデータ(たとえばニュース記事など)を元にして行なわれている(あるいは行なわれていた)ことはよく知られている。これは学習を「著作物の活用」と捉えるのか、「単に読書しているだけ」と捉えるのかの違いとなる。

 前者であれば商行為だから利用料が発生する、と著作権者は考えるし、後者であれば学生や大人が勉強のために読んでいるのと同じだから対価を支払う必要がない、とファウンデーションモデルを開発するベンダーは考えるからだ。

 このため、現在米国では著作権者やクリエイターがファウンデーションモデルを開発するベンダーが訴訟する事例が増えている。上記のような考え方に違いがあるため、結局裁判所で白黒つけざる得なくなる。それがファウンデーションモデルを開発するベンダーにとって大きな負担になっているのは容易に想像できるだろう。

 だから、OpenAIのようなファウンデーションモデルを開発するベンダーは、米国政府に「白黒つけてくれ」という提案を行なっている。3月13日にOpenAIが発表した内容では、要するにいわゆるフェアユース(公正利用)に関しては学習時に利用することを認める法律を作ってほしい、という提案だ。

 この議論が簡単ではないのは、いくつかの論点があることだ。その代表はイノベーションと規制のジレンマといった問題だ。たとえば、仮にインターネット上に公開されている情報で学習してはならないという法律ができたとしよう。結局のところ生成AIの精度というのは、学習するデータ量に依存しているので、生成AIの発展は今よりもスローダウンすることになるだろう。

 つまりイノベーションの速度はスローダウンし、今のように毎日のように新しい生成AIのアプリケーションが出てくるような状況ではなくなるかもしれないということだ。

 新しい技術が登場するときはこのような、既存の権利との衝突はよく起きて、常にそうした一種の綱引きが発生することは歴史が証明している。生成AIも、今まさにそれに直面しているということだ。

クリエイター向けのツールを提供するAdobeだからこそ、クリエイターの権利を侵害する行為を禁止することに賛成

PADRAを説明するWebサイト

 ではそうした状況に対して、Adobeはどういう対応をしようとしているのだろうか?Fireflyの導入時点で、Adobeは学習時にも、インターネット上のデータは使わずに、Adobe Stockのデータのうち著作権者が許諾したデータとAdobe自身が持つデータだけで学習していることを明らかにしている。つまり、通常のファウンデーションモデルを開発しているベンダーに比べると、より厳しいルールを自らに課しているというわけだ。だからこそ「商用利用可能」という表現が可能になっているわけだ。

 Adobeはそうした厳しい自主ルールを掲げているだけでなく、クリエイターの権利を守るような「規制」法案を作ることに賛意を表明している。Adobeのロビンソン氏は、昨年の12月に米国の連邦議会下院に提案された法案「Preventing Abuse of Digital Replicas Act(PADRA、パドラと発音する)」のような取り組みをAdobeは支持していると説明した。

 PADRAは、米国連邦議会下院のダレル・アイサ議員(共和党)が超党派で提案した法案で、個人の声、画像、肖像が無許可で商用利用されることに対する米国連邦政府の保護を規定している法案となっている。米国でも、俳優や有名人の声などを学習に利用して、その結果でフェイクニュースなどが作られることが問題になっており、そうした事態に対処しようという取り組みの1つになる。

 この法案が成立すれば、この記事の冒頭で説明したような声優、歌手、俳優といった声や画像、肖像などを無断に学習に利用することは明確に禁止になる。「無断で」というところがポイントで、本人が許可をすれば学習に活用することは妨げられない。このため、リアルタイム翻訳機能のような活用例では、翻訳される声の持ち主が許諾をすれば問題がなくなることになる。

 また、このことは、そうした声優などが自分の声を学習用のデータとして提供したいことを妨げるものではないということだ。無断でなければよいわけだから、対価と引き換えに自分のデータを提供する、そうした新しいビジネスチャンスを声優業界に提供する可能性もある。そのことは、生成AIのビジネスを行なう事業者にとっても、対価を払えば学習データを入手することができるようになるので、「商用利用」に資するサービスを提供するチャンスになる。

 たとえば、アニメのキャラクターの声を担当している声優にデータを提供してもらい、そのキャラクターのAIエージェントを商用サービスとして提供する、そんな活用方法が考えられるだろう。

 ロビンソン氏は「社会にとって公正であり、かつクリエイターの権利を守り、同時にイノベーションの発展も実現する、そのバランスを取ることが大事だ。Adobeもそうした取り組みの中で果たすべき役割があると考えており、PADRAのような法案の実現を後押ししている」と述べ、Adobeが生成AIのサービスを顧客に提供している企業だからこそ、クリエイターの権利を守ることとイノベーションの進展のバランスを取る議論には積極的に参加していきたいからPADRAの法案成立を後押ししているのだと説明した。

 繰り返しになるが、重要なことは「技術の価値は中立であること」だ。つまりそれを有益に使うのも、有害に使うのも人間次第。新しい技術を有益に使えば、社会の進化によい影響を与えてきたのが歴史であると訴え続けたい。その上で有害になる行為を防ぐような立法措置は重要だし、PADRAのような法案を、日本でも検討してみる必要があると筆者は思う。

 ぜひともIT業界でも、そして法律を制定する国会でも、直接の利害関係者になる声優や俳優といった権利者の皆さんにとっても建設的な議論が行なわれることを希望してこの記事のまとめとしたい。