Stable Diffusion入門 from Thailand 第24回
インストール方法、使い方も解説
SD3.0の汚名返上なるか?!画像生成AI「Stable Diffusion 3.5」を試してみた
2024年11月06日 13時00分更新
ComfyUIでSD3.5を動かしてみる
準備ができたらいよいよComfyUIを起動しよう。まだComfyUIを使ったことがない人は当連載の「これは便利!「Stable Diffusion」が超簡単に始められる「Stability Matrix」」などの記事を参考にStability Matrix経由でインストールしておこう。
ComfyUIでSD3.5を使用するにはワークフローが必要だ。ComfyUI_examplesページにSD3.5用のサンプルワークフローが用意されているので今回はそれを利用することにする。
生成された画像をComfyUIの画面にドラッグ&ドロップ(画像をローカルに保存してからロードでも可)すればワークフローををインポートできる。
無事SD3.5用のワークフローが表示された。
まずは、左側下方にある「Load Checkpoint」ノード付近を「+」ボタンまたはスクロールホイールを使って拡大表示しよう。
Load Checkpointは文字通りチェックポイント(AIモデル)を読み込むノードだ。デフォルトで「sd3.5_large.safetensors」が表示されているが、正しく選択されているか確認するために一度モデル名をクリック。
選択肢の中からあらためて「sd3.5_large.safetensors」を選択しておけば間違いない。
次に各種モジュールを読み込むノード「TripleCLIPLoader」を拡大表示。
clip_g.safetensors、clip_l.safetensors、t5xxlfp 16.safetensorsと3つのCLIPファイルが表示されている。
こちらも念の為クリックして選択し直しておこう。
プロンプトやKSamplerモジュールはとりあえずそのままで構わない。
「Queue Prompt」を押せば生成が始まるはずだ。
初回はモデルをロードする時間がかかるためしばらく待つことになる。ロードが終わると画像が生成されていくはずだ。
生成された画像はいちばん右端の「Save Image」ノードに表示される。
画像は「\ComfyUI\output」に、Stability Matrixを利用している場合は「\StabilityMatrix\Images\Text2Img」にも保存されている。
生成時間は初回が66秒、2回目以降は少し早くなり40秒ほどだ。筆者の環境では「WebUI Forge」で「FLUX.1 dev」を使って生成した場合とほぼ同じくらいだ。
GPUの使用率はかなり高く、メモリーは12GBをほぼフルで使ってしまっているようだが、メモリー不足によるエラーは一切出なかった。
この連載の記事
-
第23回
AI
最新の画像生成AI「FLUX1.1 [pro]」違いは? Midjourney、DALL-E、Imagen 3、Stable Image Ultraと比較 -
第22回
AI
画像生成AI「Midjourney」の使い方 Webアプリ版の画像編集機能を完全マスター -
第21回
AI
画像生成AI「Midjourney」の使い方 待望のWebアプリ版を徹底的に解説します -
第20回
AI
話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) -
第19回
AI
画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した -
第18回
AI
イラストを完成させる動画はAIで作れるのか「Paints-Undo」試してみた -
第17回
AI
人気の画像生成AI、違いは? Stable Diffusion XL、Midjourney、DALL-E、Playgroundの画風を比較する -
第16回
AI
画像生成AI「Midjourney」の使い方 画風やキャラクターを固定する「スタイルリファレンス」「キャラクターリファレンス」はこう使う -
第15回
AI
画像生成AI「Midjourney」の使い方 思いどおりの絵を出すための「パラメーター」まとめ【最新版】 -
第14回
AI
画像生成AI「Midjourney」の使い方 ユーザー登録から最新機能まで【最新版】 - この連載の一覧へ