FLUX.1の再現性が高いのは”潜在空間”が広いから
なぜFLUX.1でLoRAを使うと、少ない学習データ、短い学習時間でもかなり高い再現性が実現できるのか。その一因はFLUX.1のパラメーター数が多いためです。
FLUX.1のパラメーター数は120億とアナウンスされています。1年前の「Stable Diffusion XL」のパラメーターは35億。2年前の「Stable Diffusion v1.4」は、公開されていませんが数億程度だと推測されています。
一般的に、パラメーター数が多いほど、ウェイトモデルが持つ潜在空間(Latent space)の幅が広いことになります。FLUX.1は現状公開されているオープンモデルのなかでは段違いに広く、深いことがわかります。
この潜在空間が広ければ広いほど、出力できる画像の幅も広いと言えるのです。
月須和・那々さんが開発した「コピー機LoRA」という手法があります。20枚の画像からもっと多くの画像を学習させてLoRAを作るのではなく、雰囲気の異なる、たった2枚の画像を1000回にわたって過剰に学習させ(過学習)、そのLoRAを結合(マージ)させることで、特定の画風の出力を可能にするという手法です。
公開されている「とりにく絵LoRAの作り方」という手法によると、まずコピー機LoRAを使い、安定的に決まった画風を出せるLoRAを作り、それを使って他の表情やポーズのバリエーションを作り、素材となるデータを100枚以上作ります。そしてそれらを学習させることで、自分の画風LoRAを作っていくというものです。
この方法論はかなり有効で、筆者の経験でも、一定の画風LoRAを構築するのは、数回かつ数時間にわたるLoRA学習を繰り返すことで実現できました。この手法によって、それなりに特定の画風を作れてしまうのは、Stable Diffusion XLの潜在空間にそれだけの広さがあるからこそのものでした。
そのとき、Stable Diffusion XLよりさらに潜在空間が広いFLUX.1 devであれば、より少ない学習であっても、こうした画風などの生成結果を確立できるLoRAを短時間できる可能性が垣間見えているというわけです。
たとえば、8月に登場したFLUX.1 Dev用の画風LoRAに、aihonobono2023さんが公開した「Midjourney Whisper FLUX LoRA」というものがあります。これはMidjouneyで生成した画像を使ってトレーニングしたFLUX.1 Dev LoRAのようなのですが、このLoRAを適応すると、画像の雰囲気がハイパーリアルな写真風に雰囲気が変わり、同じプロンプトでも劇的に情報量が増えるという効果があります。
このLoRAを使うと、同じ「ラーメンを食べる」という画像でも、劇的に変化します。
LoRAが何をしているかと言えば、結局は、学習データを通じて獲得された、特徴点の情報を利用することで、画像全体をその方向に引きずっているだけなんですよね。なので、潜在空間が広いほど絵柄を引きずりやすい。
FLUX LoRAを作っていて感じるのは、まだまだ発見されていない潜在的な表現能力は相当潜んでいるということです。今後、その幅の広さは、様々な方法で発見されてくると考えられます。FLUX.1でも「コピー機LoRA」手法から、画風を確立する方法が有効かどうかは今後検証されていくことでしょう。
この連載の記事
-
第88回
AI
1枚の画像から、歩き回れる“世界”ができる 来年のAIは「ワールドモデル」がやばい -
第87回
AI
画像生成AIの進化が早すぎる 2024年に起きたことまとめ -
第86回
AI
イラストに強すぎる画像生成AIモデル SDXL系「NoobAI-XL」の衝撃 -
第85回
AI
3DモデリングにAI革命の兆し 1枚のイラストから3Dデータが完成 -
第85回
AI
誰でもVTuber時代へ フェイシャルAI技術、続々登場 -
第84回
AI
画像生成AI「Stable Diffusion 3.5」性能はものたりないが、自由度が高いのは魅力 -
第83回
AI
リアルすぎてキモい 動画AIの進化が止まらない -
第82回
AI
もはや実写と間違えるレベル 動画生成AI「Runway」の進化がすごい -
第81回
AI
AIイラスト、こうしてゲームに使っています -
第80回
AI
ゲーム開発はAI活用が当たり前になりつつあるが、面白さを作り出すのは人間の仕事 -
第79回
AI
AIが考える“アイドル”がリアルすぎた グーグル「Imagen 3」なぜ高品質? - この連載の一覧へ