このページの本文へ

新清士の「メタバース・プレゼンス」 第50回

“世界生成AI”到来か 画像生成AIのゲームエンジン化が進む

2024年01月22日 07時00分更新

文● 新清士 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

Midjourneyの生成画像にDepthを加えて背景にしてみた

 そして、もう1つのアプローチは、生成した画像データにDepth情報を与えることで、3Dモデルとして扱える情報に変えてしまうというものです。一度3Dモデル化ができれば、ゲーム内で静的に扱うこともできます。

 12月にスタンフォード大学とグーグルが発表した「WonderJourney」という研究では、入力されたプロンプトから連続的な3Dシーンを生成することができるとされています。

WonderJourneyの公式ページで公開されている作例 https://kovenyu.com/wonderjourney/

 入力したプロンプトから大規模言語モデル(LLM)を使って関連要素を抽出し、Depth情報を生成。画像を立体化し、カメラ位置を動かしながら、画面に新たに入ってくるものをどんどん追加で生成していく方式です。計算量としてはかなり重いため、まだリアルタイムに動作させることはできませんが、一度生み出した世界であれば動けるようにできる可能性があります。残念ながら一般には未公開の技術なので、検証ができないのですが……。

論文より。画像データにDepth情報を加えて、カメラの動きに合わせて前から書き換えている。色が濃いものほど前側にあると判定されている

 Depthデータを利用して3Dモデルや3D空間を作ろうというアプローチは現在も続けられています。扱いが比較的簡単なためです。ただ、正面向きの画像からしか生成できないため、表示できる空間には限界があります。

▲筆者が作成した、Midjourneyの画像にDepthデータを生成して、Blenderで3Dモデル化したケース。横顔の情報はないので、左頬は伸びてしまっている

 空間をただ横に動くだけなどであればそれでもいいわけですが、移動をさせようと思うと、やっぱりDepthが必要です。そこでDepth情報をなんとかできるかと試してみたところ、今のBlenderの環境でも生成ができてしまいました。もちろん時間はかかりますが、そこも高速化すれば、最終的には立体空間ができてしまいます。

 ということで、Midjourneyで生成した画像をもとにDepth情報を作り、3D化して、背景としてUE5に持ち込んでみたケースがこちらです。

 無理やり引っ張っているので基本的に伸び伸びで、近寄ると非常に粗いんですが、そうしたアプローチを取れることはわかりました。ゲームなどに組み合わせるには使いどころが難しそうですが。

Midjourney v6で作成した画像。奥行きの空間が不足しているので、3D化すると伸び伸びになってしまう

カテゴリートップへ

この連載の記事
ピックアップ