このページの本文へ

前へ 1 2 3 4 次へ

新清士の「メタバース・プレゼンス」 第85回

3DモデリングにAI革命の兆し 1枚のイラストから3Dデータが完成

2024年11月25日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

1枚の画像から3Dデータを作成した画像(筆者作成)

 動画生成AIの発展により、非常に面白い方向性が生まれてきています。最新の動画生成技術と3D技術を組み合わせることで、たった1枚の絵から、3Dデータを作れるようになる可能性が出てきているんですね。これは将来のゲーム開発や映像制作のあり方を激変させる可能性があります。

※記事配信先の設定によっては図版や動画等が正しく表示されないことがあります。その場合はASCII.jpをご覧ください

動画生成AI「Runway」新機能がきっかけ

 まず、この動画を見てください。Stable Diffusionを使って作成した1枚の画像を、いくつかの手順を実施することで、3Dモデルとして扱えることに成功している様子です。

 こうしたことが実現できるようになったのは、動画生成AIサービス「Runway」に11月2日に追加された新機能「カメラコントロール機能(Advanced Camera Control)」のためです。1枚の画像に対して、最大10秒の生成される動画にカメラの動きをかなり詳しく指定できるようになりました。左右方向の回転や、上方向へのチルト、ズーム(拡大)などの操作ができてしまう。

 これまでもプロンプトでも指定できましたが、ランダム性が高く、正確な制御は難しいものでした。そして、実写のみならず、アニメ系の画像であっても動かすことができたりします。この機能が先進的なのは、人物やキャラクターの「一貫性」を維持できている点です。これまでの動画生成AIではこうしてカメラを動かすと、途中から別の人物に変化するといった破綻が起きる傾向がありました。

 この動画では、最初の1枚の画像以外はすべてカメラコントロール機能で生成しています。背負っているバックパックといったものは情報として持っていないので、勝手に描かれてしまうので形状は変わってしまうのですが、それでも、かなり一貫性が維持されており、スカートのひだも崩壊したりしていません。

 次の動画では、同じくカメラコントロール機能で、カメラを動かしています。3種類の画像を使い、それぞれの起点となる1枚の画像を中心に左右に動かし、合成しています。細かく見ると破綻を見つけることができるのですが、それでも、イラスト風キャラクターに対し、ある程度の一貫性を保って角度の違うキャラクター描写ができています。

Runwayのカメラコントロール機能でカメラを指定している様子。画面では左方向にカメラが回転するような画像が生成されるように指定している

前へ 1 2 3 4 次へ

カテゴリートップへ

この連載の記事
ピックアップ