このページの本文へ

新清士の「メタバース・プレゼンス」 第85回

誰でもVTuber時代へ フェイシャルAI技術、続々登場

2024年11月18日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

「LivePortrait」の方が優秀との指摘も

 一方、Act-Oneはいまのところ、背景が動いている画像などには適応させられません。そのため、同じようなフェイシャルを作成する環境としては、画像生成ツール「ComfyUI」用の「LivePortrait」の方が優秀なのではないかという指摘もあります。

 生成AIを使ってミュージックビデオを制作しているBlaine Brownさんは、Act-Oneの現状の課題点を挙げています。比較として、まずAI動画サービスの「Kling」で前に進んでいる動画を作成し、その動画をLivePortraitの「Video-to-Video(v2v)」を使って顔の動きだけを別に反映させて動画を作ることで、より魅力的な動画を作り出せるとしています。

 LivePortraitは、2024年7月に発表された、中国のショートビデオアプリの快手(Kuaishou Technology)と、中国科学技術大学などが共同開発したフレームワークです。高品質な6900万フレームの人物の動画データを使って、画像と動画を組み合わせた学習をしています。人物の動画から、人間の顔の動きにキーポイントを生成し、その情報から画像の動きを含んだ512x512のサイズの動画を生み出すというものです。

人物の動画は、目や眉、口、顔の輪郭などの形に分解される(ComfyUI-LivePortraitKJのサンプル動画より)

 ComfyUIでLivePortraitを利用する方法としては(ComfyUI nodes to use LivePortrait)、3種類のワークフローが公開されており、リアルタイムでウェブカメラの動画を反映できる「Realtime with webcam feed」、画像から動画を作成できる「Image-to-Video(i2v)」、動画から表情だけに影響を与えることができる「Video-to-Video(v2v)」があります。

 実際に動かしてみると、解像度が512x512と制限があることや、頭以外の動きは作れないこと、極端な動きでは不自然になるといった課題はあるものの、かなり自然に表現できています。調整するともっと自然にできると思われます。

ComfyUI LivePortraitのRealtime with webcam feedの画面

▲実際に筆者をウェブカメラでリアルタイムに撮影して反映している様子。かなり自然に表情が形作られている

▲イラスト的な画像であっても、ある程度は変換することができる。同じく筆者を撮影し、出力したものを、音声変換を行って後から合わせたもの。このような記号的な画像よりも、若干立体感が取れるもののほうが、よりきれいに出力されやすい傾向はある

 ただ、筆者が比較してみた印象では、Act- Oneは、動きが小さくなる代わりに出力される動画の品質がより高い傾向にあり、LivePortraitは、より大きな表情の動きをしてくれるのですが、若干の粗さが出る傾向があるように感じられます。安定性により品質を確保するか、より動きを表現することを重視するのかという目指す目標に若干差があるようです。

カテゴリートップへ

この連載の記事
ピックアップ