Stable Diffusion入門 from Thailand 第6回
画像生成AI「Stable Diffusion」を爆速化。秒単位で美少女を生成できるLCM系ツールを使い比べた
2023年12月13日 09時00分更新
生成AIの進歩はマジで早い。Stable Diffusion関連だけでも毎日のように新規手法が発表され、せっかく身につけたスキルも数週間後には完全に時代遅れのものになっていることも珍しくはない。
中でも、ここ最近もっとも注目されているのは「LCM」だろう。
LCMとはLatent Consistency Model(潜在一貫性モデル)の略で、大雑把に言えば「画質を多少犠牲にすることで信じられないほど高速化」する仕組みだ。
さらにStable Diffusion開発元の本家Stability.aiからも、LCMとは異なるが「SDXL Turbo」という高速モデルが発表された。果たしてどれほど早くなったのか、それぞれ検証してみることにする。
LCMってどういう仕組?
とはいえこれだけでは少し雑すぎるので、もう少し詳しく説明しよう。
Stable DiffusionはLDM(潜在拡散モデル)という仕組みをベースにしている。これは、ランダムなノイズからスタートし、ノイズを除去するステップを繰り返していくことによって徐々に最終的なデータを構築していく仕組みだ。
ステップ数は「Sampling Steps」パラメーターという形でwebUIには実装されている。上記は最初のステップの例。文字通りランダムなノイズだ。
試しに「Sampling Steps=32」という値で生成し、各ステップの画像を見てみよう。プロンプトはシンプルに「1 girl」だ。
Step6くらいまではまだノイズ混じり。Step9でようやく美少女が出現している。
Step15あたりから安定し、Stepを重ねるごとにディテールアップしてきた画像だが、Step27あたりでややガチャガチャしはじめ、Step32では完全に構図が変わってしまった。Step数が多いほどよい結果を得られるとは限らないのだ。
Step数が増えれば増えるほど生成にかかる時間も増えるため、適正なSampling Step数を指定するのは重要だ。一般的にはデフォルトの「20」周辺に設定している人が多い。筆者も20のままにしている。
そこでLCMの話しに戻るが、LCMを使用すると画像のクオリティーを維持しつつ、Sampling Step数を8程度まで下げられるため、結果的に描画速度が劇的に高速化されるということらしい。果たしてそんなにうまくいくのだろうか。
LCM Extensionを利用する
Stable Diffusionのインターフェース「webUI」でLCMを試すには複数の方法があるが、まずは一番手軽な拡張機能「sd-webui-lcm」を利用する方法からスタートしよう。
webUIを起動したら、上部に表示されるタブ一覧から「Extensions」>「Install from URL」をクリックし、一番上の「URL for extension's git repository」欄に下記のURLを入力し、「Install」をクリックする。
インストールが終わったら「Installed」タブに切り替える。
「sd-webui-lcm」が追加されていることを確認したら、「Apply and restart UI」をクリックして、webUIをリスタートしよう。
画面上部に「LCM」タブが表示されているのでクリック。デフォルトでは「LCM txt2img」が選ばれている。
それでは、いつものようにプロンプト「1 girl」で生成してみよう。初回のみ少し時間はかかるが、2回目以降は7〜8秒(RTX4070 12GB)で生成が完了した。しかも4枚である。1枚単位の生成速度で言えば2秒を切っている!
拡大してみたが、まあまあのクオリティだ。これはすばらしい。
画面下部の「Advanced Option」をクリックすると、詳細な設定画面が開く。画像解像度や生成枚数などをコントロールできるようだ。
ただし、このExtensionを使う方法で現在利用可能なモデルは専用に作られた「LCM_Dreamshaper_v7」のみとなっており、基本的に似たような雰囲気の画像しか作成できなくなっているようだ。
また、筆者の環境では「img2img」「vid2vid」を試すとエラーがでてしまった。おそらくビデオメモリーが足りないようだ。
この連載の記事
-
第24回
AI
SD3.0の汚名返上なるか?!画像生成AI「Stable Diffusion 3.5」を試してみた -
第23回
AI
最新の画像生成AI「FLUX1.1 [pro]」違いは? Midjourney、DALL-E、Imagen 3、Stable Image Ultraと比較 -
第22回
AI
画像生成AI「Midjourney」の使い方 Webアプリ版の画像編集機能を完全マスター -
第21回
AI
画像生成AI「Midjourney」の使い方 待望のWebアプリ版を徹底的に解説します -
第20回
AI
話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) -
第19回
AI
画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した -
第18回
AI
イラストを完成させる動画はAIで作れるのか「Paints-Undo」試してみた -
第17回
AI
人気の画像生成AI、違いは? Stable Diffusion XL、Midjourney、DALL-E、Playgroundの画風を比較する -
第16回
AI
画像生成AI「Midjourney」の使い方 画風やキャラクターを固定する「スタイルリファレンス」「キャラクターリファレンス」はこう使う -
第15回
AI
画像生成AI「Midjourney」の使い方 思いどおりの絵を出すための「パラメーター」まとめ【最新版】 -
第14回
AI
画像生成AI「Midjourney」の使い方 ユーザー登録から最新機能まで【最新版】 - この連載の一覧へ