Stable Diffusion入門 from Thailand 第24回
インストール方法、使い方も解説
SD3.0の汚名返上なるか?!画像生成AI「Stable Diffusion 3.5」を試してみた
2024年11月06日 13時00分更新
Stable Diffusion 3.5 Medium
次に10月29日に公開された最新モデル「Stable Diffusion 3.5 Medium」を試してみよう。Largeで使用したワークフローをそのまま利用できるので、やることは「Load Checkpoint」ノードでモデルをLargeからMediumに変更するだけだ。
初回は16秒、2回目以降は11秒程度で生成される。生成された画像に関しては書き込み密度が少し減ってはいるものの質感やクオリティに遜色はない。
Stable Diffusion 3.5 Large Turbo
最後に高速モデルの「Stable Diffusion 3.5 Large Turbo」を試してみよう。こちらも同じワークフローを利用、モデルをMediumからLarge Turboに変更しよう。
ただしLarge Turboの場合「KSampler」ノードで、「steps」を「20」から「4」へ、「cfg」を「5.5」から「1.2」にそれぞれ変更する必要がある。
生成された画像。初回は30秒かかったが、2回目以降は10秒以下で生成された。
この連載の記事
-
第26回
AI
人気の画像生成AIツール「ComfyUI」デスクトップアプリがめっちゃラク 初心者にオススメ -
第25回
AI
業界トップ級の画像生成AIツール「Recraft」 Adobeユーザーは体験する価値あり -
第23回
AI
最新の画像生成AI「FLUX1.1 [pro]」違いは? Midjourney、DALL-E、Imagen 3、Stable Image Ultraと比較 -
第22回
AI
画像生成AI「Midjourney」の使い方 Webアプリ版の画像編集機能を完全マスター -
第21回
AI
画像生成AI「Midjourney」の使い方 待望のWebアプリ版を徹底的に解説します -
第20回
AI
話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) -
第19回
AI
画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した -
第18回
AI
イラストを完成させる動画はAIで作れるのか「Paints-Undo」試してみた -
第17回
AI
人気の画像生成AI、違いは? Stable Diffusion XL、Midjourney、DALL-E、Playgroundの画風を比較する -
第16回
AI
画像生成AI「Midjourney」の使い方 画風やキャラクターを固定する「スタイルリファレンス」「キャラクターリファレンス」はこう使う - この連載の一覧へ