このページの本文へ

新清士の「メタバース・プレゼンス」 第61回

画像生成AI“児童ポルノ”学習問題、日本では表現規制の議論にも

2024年04月15日 07時00分更新

文● 新清士 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

問題の「Stable Diffusion v1.5」は淘汰される可能性がある

 それでも、Stable Diffusion v1.5は世界的に市場淘汰にあう可能性が出てきています。

 まず、Stable Diffusion v1.5はベースの元々の出力画像の品質が低いこともあり、元のモデルのままでは、きちんとした画像を生成することは、ほぼ不可能です。筆者の使用経験からの感覚では、学習した画像をそのまま再現するほどの出力をすることは、まず無理であると考えます。

筆者が、Stable Diffusion v1.5のプレーンな環境で性的な画像を狙って生成してみたもの。顔は歪み、手や足や体は奇妙に合体したり、ねじれたりなど、そもそも視聴に耐えうる水準の画像の出力は不可能に近い(ぼかしを入れている)

 また、新ユーザーインターフェース「Stable Diffusion Forge」の登場により、VRAMの搭載量が少ないPCでも動作が可能になったこともあり、ユーザーのあいだでは、Stable Diffusion v1.5から2023年7月にリリースされたStable Diffusion XL(SDXL)への移行が進んできています。生成できる画像の品質が高いためです。

  SDXLは、SD2.0以上に問題のある画像の削除が進められたモデルであるため、Stability AIの主張通りでであれば、CSAMといった問題のある画像は含まれていないと考えられます。

SDXLのデフォルトのモデルでは性的な画像を生成することが自体が難しい。「足を開いて性器を見せる」とプロンプトに指定したケース(「世界を変えた画像生成AI、さらに進化『Stable Diffusion XL(SDXL)』いよいよ正式公開」より )

 これは、今後、学習前にオプトアウトが実施された次世代バージョン「Stable Diffusion 3」の登場によりさらに問題は減少するでしょう。少なくとも、Stable Diffusionで中核で使われる基盤モデルにLAION-5BのCSAMが含まれているという問題は、技術的な発展を通じて解決に向かっていると言えます。

 もちろん、Stable Diffusion v1.5からSDXLに至まで、ユーザーなどによって作成された追加学習モデルや、LoRAを使うことで、性的な表現の出力が可能になるものは実際に存在しています。v1.5を使って品質の高い画像を生成している場合は、追加学習をしたチェックポイントやLoRAが組み合わされていると言い切ってもいいでしょう。

 それらに違法な画像が含まれている可能性は残る、という別の問題はあります。また、そもそもLAIONを学習元として利用したのかどうかを明らかにしていない、MidjourneyやOpenAIなどの様々な学習済みデータをサービスとして展開する企業もあります。学習済みデータからは何の画像データを学習しているのかを明らかにする方法がない以上、今後も本当に違法性のあるデータが含まれているかどうかは争点になり続けるでしょう。

 ただ、今後は、生成・利用段階の結果に対するものへの規制が主流となっていくとは考えられます。

カテゴリートップへ

この連載の記事
ピックアップ