筆者は、オリジナルキャラクターを持っている。機田ゆんという。
通常、イラストレーターさんにキャラクターデザインを渡していろんな構図の機田ゆんのイラストを描いてもらっている。
常々、生成AIでキャラクターデザインを反映させてイラストを生成するにはどうしたらいいのだろうかと考えていた。
機田ゆんの髪型はボブに襟足の長い、くらげのような髪型をしている。
ChatGPTの画像生成AI「DALL・E」を使って言葉(テキスト)で試してみたところ、この髪型を再現して生成させることができなかった。
ChatGPTにキャラクターの画像を読み込ませて、言語化してもらって、その言葉を使ってまた生成するのをやってみても、無理らしい。
言葉でキャラクターデザインを伝えるのは無理そうだ。服装も安定しない。
言葉でダメなら、絵から絵を生成するのはどうだろうか? 下絵のようなものを読み込ませて、そこから生成したらキャラクターデザインが反映されるのではないだろうか。
絵から絵を生成できるツールを探したところ、Stable Diffusionでできるようだ。Stable Diffusion は画像生成AIのひとつだ。オンラインでも使えるがローカルに落として使うと、無料だし色々複雑なことができる。
そこで、Stable DiffusionをローカルPCでやろうと思ってPythonを入れてGitからダウンロードしてみたが、VRAMが足らずに動かせなかった。
つまり、パソコンのGPUスペックが足りなかったのだ。
VRやるときにも困るし、そろそろガツンとVRAMの載ったパソコンが欲しいものだ。
とはいえ、すぐポンっと数十万出せるわけではないので、いったん他の方法で考えなくてはいけない。
Stable Diffusionが使えるiPadアプリを試す
探していたところ、macOSのアプリで「Draw Things」というものを見つけた。iPadやiPhoneでも使えるアプリで、Stable Diffusion が使えるらしい。幸いiPadを持っている。iPadにDraw Thingsを入れて使ってみることにした。
テキストによる指示と画像の指示の飲み込む割合を決める、Strength設定がかなりキモのようだ。
上のものはテキストと画像の割合を50%でやったものだ。
身体があると難しそうなので、顔だけでやってみよう。
元絵をちょっと可愛くした感じだ。
50%。少しテキスト側の解釈が入ってくる。
テキストが60%。もう可愛い女の子になっている。
と、こういう具合で文字の割合を増やすと可愛くなっていく。
元絵が下手くそすぎるからだけど。
絵が小さすぎて、キャラデザが反映されないのかな?絵をわかりやすく丁寧に大きく描いてみる。
結論。元の絵が上手くないから、元絵を優先させて生成させるとかわいくなくなる。かわいくしようと思って文字の割合を上げると別のキャラになる。「絵描くの上手くなりてえ」とこんなに思ったことはない。
「LoRA」でゆんちゃんを学習させればいいんじゃん!!
さて、ここで筆者は気づいたのである。
LoRAって、名前は聞いたことあるけど、なんだ……? 設定のところにあるぞ……?
LoRAとは、特定の人物やキャラクターだけを学習させて、その人物やキャラを出力できるようにしたり、特定のポーズを学習させて複雑なポーズをさせたりできるやつらしい!!!
これじゃん!!!
ゆんちゃんを学習させればいいんじゃん!!!
ちなみに、芸能人や漫画のキャラを学習させてしまって問題になったりもしているらしい。筆者のは完全個人所有キャラなので無問題だ。
しかし、ここでまたVRAMの壁が立ちはだかる。
学習するのに、大きなVRAMが必要らしい……。LoRAをやりたくてもうどうしようもなくなっていた筆者は必死に検索をかけた。
この連載の記事
- 第319回 歌声合成ソフト「UTAU」でオリジナルキャラを歌わせてみた
- 第318回 DTM勢がAIで作曲したら、AIの得意分野と苦手分野が見えてきた
- 第317回 ものづくり版コミケ「Makerフェア」2024年は面白かった。出展者の世代交代もなされているように見えた
- 第315回 0歳児、いつから保育園に? 女性の働き方、とことん考えてみました
- 第315回 推しの細胞がついた指輪を作ってもらった
- 第314回 おしゃれすぎるファン付きウェアを買って重要な問題に気付いた
- 第313回 0歳児がいながら、働く。ベストなやり方は?
- 第312回 パートナーの反対で転職できない問題
- 第311回 YouTubeの再生を止めないために画面を自動でタップする機械を作った
- 第310回 地方に移住したいが、東京にとどまるべきか
- この連載の一覧へ