このページの本文へ

アドビの考える生成AI「技術と法律」作家に利益を還元、“無断画風コピー”の禁止も提案

2023年10月17日 08時00分更新

文● 西田 宗千佳 編集●飯島恵里子/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

すでにFireflyでは、生成Match時に「問題ないコンテンツを使っているかどうか」の警告が出るようになっている

システムでアドビはどう対策するのか

 ここで問題になるのは、そうした機能を使った場合、「なにかに似せた画像」がより作りやすくなる、ということだ。生成AIにありがちな課題だが、「オリジナルのクリエイターの権利を侵害するのでは?」という点だ。

 懸念はもっともであり、アドビも対策はしている。

 まずModelのカスタマイズについて。これは基本的に「企業側が使う」ものなので、どういうコンテンツを学習するかは、最終的なアウトプットをする企業が責任を負う。

 一方で企業向けのFireflyを使う場合、その生成コンテンツについての訴訟には「アドビが全額補償する」というルールが存在するので、この2つを組み合わせれば課題は起きないだろう……という考え方だ。

 では、個人も使える「生成Match」の場合はどうだろう? ここでは2つの方策が採られている。1つは「コンテンツ認証」の利用。

 コンテンツの来歴を記録した技術だが、この中には「do not train(学習拒否)」タグがある。これが生きている場合、生成Matchの対象にならない。許諾上も、利用権があって問題ない画像を使うよう定められている。

ここに出ているサムネイルはそのまま記録され、利用に問題がなかったかどうかの精査に使われる

 次に「記録」。氏によれば、生成Matchに使われた画像は、システム内にサムネイルが記録される。そして、画像についてクレームなどの問題が発生した場合、状況がさかのぼって確認され、その後は同じ画像は生成Matchに利用されないようになるという。

 もちろんこれらは、「権利侵害を100%防止する」ものではない。やろうと思えば回避方法はいくらもある。だが、意図的に回避することをアドビは100%防ごうともしていない。

 結局のところ、画像を生成することそのものは罪ではない。生成画像を世に出たあと、それが権利侵害や迷惑行為につながった場合、そこで初めて問題になるのだ。

 本質的には生成画像を「使う人」に委ねつつ、その前段階で「利用者が判断できない形で侵害が起きること」を防ぎ、「利用者が求める形のコンテンツを作る」ことに合わせた運用が考えられている、という形と理解できる。

 アドビのような企業のツールを使う場合、自前で学習した画像生成AIモデルを使う場合と違い、100%の自由はない。

 しかし、土台としての安心を作っておき、その上で「利用を望まないクリエイターはその旨意思を示してほしい」ということなのだ。企業が仕事に使うなら、そちらの方が良い。

カテゴリートップへ

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン