このページの本文へ

新清士の「メタバース・プレゼンス」 第140回

3Dモデル生成AIのレベルが上がった 画像→3Dキャラ→動画化が現実的に

2026年01月19日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

5分程度で“見える”レベルの3D生成

 とはいえ、競合他社が目標としていると思われるため、Tencent HY 3Dを調べて、現状の最先端の3D生成の実情を探るべく試してみました。画像から人型のキャラクターを作り、それをアバター方式のVRM形式で扱い、自由にポーズが取り、それを応用するところまでを紹介してみたいと思います。

 以前に比べて、3D生成を成功させるコツもはっきりしてきています。Google Deepmindの画像生成AIモデル「Nano Banana」によって「3Dっぽい画像」を作り、リファレンス画像として使う方法です。3D AIは、元々は3Dモデルで学習しているために、リファレンス画像に立体感などの情報が含まれている方が、正確にその形を再現しやすいようです。

 たとえば、SF的なキャラクターモデルを作るとします。素材をまずMidjourneyで作成しますが、2Dのアニメ風のままだと、3D生成があまりうまく行きません。特に、顔が板状に解釈されることが多く、失敗する可能性が高まります。

 そこで、Nano Banana Proを使って、3Dグラフィックス風の見た目にします。手と身体がモデルとしてくっついたりしないように、3Dモデルの一般的なポーズの「Tポーズ」姿勢になるように指定します。そうすることで、より生成しやすいデザインになります。最低限、前と後ろの二面図があれば、3Dにすることができます。

<プロンプト>

画像1を、3Dグラフィックス風の画像の前と後ろの二面図のTポーズにして。3DCG、リアルタイムレンダリング、実写風。背景は白のシンプルなものに。

リファレンスイメージの例。Midjourneyの2D画像(左)、Nano Banana Proでの二面図(右)

 Tencent HY 3Dの設定は、生成するポリゴン数を50万(500k)以下に指定して生成します。これは後に、自動でボーン(骨)を入れることができる「Adobe Mixamo」を使うためです。Mixamoは処理できるデータ量に限界があるようで、筆者が試した限り50万ポリゴン以下である必要がありました。

 5分ほど待って生み出された生成結果は、それなりの水準で出てきます。ディテールが潰れているなどの問題はありますが、以前に比べるとだいぶ「見える」レベルになってきました。PBR(物理ベースのレンダリング)テクスチャも生成してくれるため、表面のライティングもきちんと反映されています。

Tencent HY 3Dで二面図を生成した結果

カテゴリートップへ

この連載の記事
ピックアップ