このページの本文へ

Stable Diffusion入門 from Thailand 第28回

ローカル動画生成AIの革命児「FramePack」の使い方

2025年04月21日 21時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

さっそく生成してみよう

 インストールだけではなく使い方も実に簡単だ。基本は画面左上の「Image」エリアに開始フレームとなる画像を配置し、動きを指示するプロンプトを記述するだけだ。

 なお、現在は「image 2 video」のみ対応しており「text 2 video」には対応していないので必ず開始画像が必要となる。

 開始フレームにMidjourneyで作成した画像を配置。プロンプトは以下にしてみた。

プロンプト:Young woman drinking juice outdoors, smiling with enjoyment.

 設定項目がいろいろ用意されているが今回はすべてデフォルトで試した。なお「Total Video Length(Second)」で動画の秒数(デフォルト5秒、最大120秒!)を変更できる。

 「Start Generation」ボタンをクリックすると生成がスタートする。

 なお、「Quick List」にはサンプルのプロンプトが表示されており、クリックすることで使用できる。

 初回生成時には約30GBの推論に使うAIモデルをダウンロードするためスタートするまで少し時間がかかる。

 生成中はこのように完成したところまでの動画がループ再生される。動画の後半(最後のフレーム)から逆算して生成しているのがよくわかる。

 パフォーマンスモニターを見ると、メインメモリー、ビデオメモリー共にかなりの消費だが問題なく動いてはいる。

 約19分後、最初の動画が完成した。かなりいい感じではないだろうか。

 別の開始フレームでも試してみよう。なお、今回の画像はことわりがない場合すべて最近アップデートされたMidjourney V7で生成している。

プロンプト:Young woman notices us and waves her hand.

開始フレーム

 約12分で完成。こちらもかなりいい出来だ。手指も破綻していない。

 アニメ風イラストでも試してみよう。こちらは「Total Video Length(Second)」を「10秒」に設定している。

プロンプト:The girl dances gracefully, with clear movements, full of charm.

開始フレーム

 カバンが両肩にかかっているのはご愛嬌。後半帳尻合わせのためか動きが早くなるのが少し気になる。

カテゴリートップへ

この連載の記事
ピックアップ