ファインチューニング(微調整)も効果は抜群
同じような効果を与える方法として、もう1つ出てきたのが微調整(ファインチューニング)です。ファインチューニングをやるには、メモリがLoRA以上に潤沢にある必要があるため、開発は一般的とは言えないのですが、それでも試す人が現れはじめています。
その1人があいきみさん。FLUXのアニメ系ファインチューニングモデル「FLUXimation」を公開されています。おそらくアニメ系画像に強いNiji・Jorneyの画像を数百枚使って学習させたものと思われますが、かなりの品質のアニメ系イラストが出力できます。
Fluximation https://t.co/CezHAbugyL
— あいきみ (@AiWithYou1) August 16, 2024
Flux.1 devのアニメモデルをアップしました#Flux#flux1pic.twitter.com/wSTsr7Zf3N
FLUX.1 devモデルの限界として、当初はアニメ絵があまりいいものが出ないというのが挙げられていました。標準でアニメ絵を出そうとすると、なんとも古くさく、ダサい感じに出力されるという印象がありました。
ところが、そこにあいきみさんのモデルを入れるだけで、苦手であるはずのアニメが簡単に出力できるようになるのです。ランダムプロンプト設定をして、延々と違うバリエーションの画像が出てくるようにしたところ、日本人が好むアニメ系のイラストがどんどんと出てくるようになってくれました。
ただ、FLUX.1の強みである指や体のおかしさが少ないという点が弱まり、少し奇妙な画像が出たりしますが、これは追加学習させたデータの影響だと考えられます。
また、あいきみさんのモデルと明日来子さんLoRAを組み合わせて使ってみました。これだけで出力が激変するのは、FLUXが内側に持っている潜在空間が広く、深いことの象徴とも言えます。
あいきみさんは、もう少し一般的なアニメ風の出力を可能にする「FLUXimate」という別のモデルも公開されています。FLUX.1が高性能なために、FLUX.1がリリースされてまだ1ヵ月しか経っていないにも関わらず、すでにリリース当初は生成が難しいと考えられていた表現を実現できるモデルが登場し始めているのです。
FLUX.1向けのControlNetもユーザーコミュニティが開発したものの公開が始まっていますが、まだまだ使いにくさがあったりします。しかし、すでにFLUX.1用のControlNetを開発するための汎用環境が登場していることもあり、本格的に使いやすいものが、今後登場してくるのは間違いありません。
SDXLも初期段階では使いやすいものではなかったものの、ユーザーコミュニティーが様々な形で追加学習をさせることで使いやすくなっていったという経緯がありました。おそらくそれと同じことがFLUXでも起きるし、要求されるメモリ等のスペックは高いものの、SDXLより使いやすいために、ユーザーコミュニティーの後押しで、急激に様々なものが整いつつあります。相当これはヤバいんじゃないかと感じます。
この連載の記事
-
第80回
AI
ゲーム開発はAI活用が当たり前になりつつあるが、面白さを作り出すのは人間の仕事 -
第79回
AI
AIが考える“アイドル”がリアルすぎた グーグル「Imagen 3」なぜ高品質? -
第78回
AI
話題の画像生成AI「FLUX.1」 人気サービス「Midjourney」との違いは -
第76回
AI
「Stable Diffusion」の失敗に学び、画像生成AIの勢力図を塗り変える「FLUX.1」 -
第75回
AI
商業漫画にAIが使われるようになってきた -
第74回
AI
AIバブル崩壊をめぐって -
第73回
AI
AIは著作物の「フェアユース」と言えるのか 音楽業界vs.AIミュージック -
第72回
AI
人が絵を描く“工程”をAIで再現 タイムラプス風動画が炎上した「Paints-Undo」 -
第71回
AI
危機的状況の画像生成AI「Stable Diffusion 3」立て直しへ -
第70回
AI
イラストのペン入れと色塗り、AI使えばわずか1分 - この連載の一覧へ