Stable Diffusion入門 from Thailand 第20回
話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました)
2024年08月18日 17時00分更新
モデルによる比較
最後に、量子化処理がされていないベースモデルも含む以下の6モデルを使い、同じプロンプト、SEED値で作成された画像、そして生成時間を比較してみよう。
バージョン | ファイル名 |
---|---|
Dev (オリジナル) | flux1-dev.safetensors |
Dev FP8 | flux1-dev-fp8.safetensors |
Dev NF4 v2 | flux1-dev-bnb-nf4-v2.safetensors |
Schnell (オリジナル) | flux1-schnell.safetensors |
Schnell FP8 | flux1-schnell-fp8.safetensors |
Schnell NF4 | flux1-schnell-bnb-nf4.safetensors |
プロンプト:A photorealistic portrait of a young Japanese woman with long black hair and natural makeup, wearing a casual white blouse, sitting in a modern Tokyo cafe with soft window light
なおSEED値はすべて「2307193247」を使用している。
「Dev」系モデル
まずは「Dev」系のオリジナルモデル。FP16の「flux1-dev.safetensors」で試してみよう。なお、このモデルは量子化されたモデルと異なり、テキストエンコーダーやVAEが含まれていないので、「VAE/Text Encoder」に「ae.safetensors(VAE)」と「clip_l.safetensors」「t5xx_fp16.safetensors」の2つのテキストエンコーダーを明示的に指定する必要がある。
生成された画像の下には、プロンプトや各種パラメーターがすべて記載されている。描画時間は1分9秒。
次に、「FP8」で量子化された「flux1-dev-fp8.safetensors」モデル。こちらはVAEやテキストエンコーダーが含まれているファイルだと思うが念のために指定しておいた。
描画時間はなぜかオリジナルモデルよりも長い1分30秒。設定を追い込めばもう少し早くはなるだろう。
最後に、「NF4」で量子化されたモデル「flux1-dev-bnb-nf4-v2.safetensors」だ。こちらは「t5xx_fp16.safetensors」を指定している。
描画時間は36秒。画像もオリジナルと比べてそれほど劣化しているようには見えない。
「Schnell」系モデル
次に、軽量な「Schnell」系モデルを使ってみよう。まずはオリジナルモデルの「flux1-schnell.safetensors」を使用。こちらもVAEとテキストエンコーダーを明示的に指定する。
「Dev」では20にしていたSampling Stepsを、「Schnell」では「4」に変更するのを忘れずに。
生成された画像。同じプロンプト、SEED値にも関わらず「Dev」とはかなり異なる画像が生成された。生成時間は17.5秒とさすがに早い。
次に「FP8」で量子化された「flux1-schnell.safetensors」モデル。こちらもVAEとテキストエンコーダーを指定しているが、恐らく指定しなくとも描画は可能なはず。
描画時間は21.9秒と、こちらもオリジナルモデルより遅いという結果になってしまった。
最後に「NF4」で量子化された最も軽量なモデル「flux1-schnell-bnb-nf4.safetensors」。
描画時間はなんと7.9秒。4ステップにも関わらず画像のクオリティーも悪くない。
この連載の記事
-
第26回
AI
人気の画像生成AIツール「ComfyUI」デスクトップアプリがめっちゃラク 初心者にオススメ -
第25回
AI
業界トップ級の画像生成AIツール「Recraft」 Adobeユーザーは体験する価値あり -
第24回
AI
SD3.0の汚名返上なるか?!画像生成AI「Stable Diffusion 3.5」を試してみた -
第23回
AI
最新の画像生成AI「FLUX1.1 [pro]」違いは? Midjourney、DALL-E、Imagen 3、Stable Image Ultraと比較 -
第22回
AI
画像生成AI「Midjourney」の使い方 Webアプリ版の画像編集機能を完全マスター -
第21回
AI
画像生成AI「Midjourney」の使い方 待望のWebアプリ版を徹底的に解説します -
第19回
AI
画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した -
第18回
AI
イラストを完成させる動画はAIで作れるのか「Paints-Undo」試してみた -
第17回
AI
人気の画像生成AI、違いは? Stable Diffusion XL、Midjourney、DALL-E、Playgroundの画風を比較する -
第16回
AI
画像生成AI「Midjourney」の使い方 画風やキャラクターを固定する「スタイルリファレンス」「キャラクターリファレンス」はこう使う - この連載の一覧へ