Stable Diffusionでどんな画像も「立体」に
設定は簡単です。Stable DiffusionのDepth Extentionを選択後、「Combine input and depthmap into one image」のボタンをチェックして画像を生成。これをLooking Glass Portraitに持ち込むだけで立体視として見られます。実写風の画像から、アニメ風の画像まで、何でも立体視で見られるようにしてくれます。
この面白さを誌面で伝えるのは難しいのですが、画像単体では感じられない実在感が一気に増します。Stable Diffusionでかわいい女の子を作っているような人はたくさんいると思いますが、その画像からさらに手軽に実在感を感じられるようにする方法としては素晴らしいものです。
![](/img/2023/08/25/3592273/l/06b1de2834171c92.png)
Stable DiffusionのDepth Extensionを使って、Midjourneyで生成した画像に、深度情報を追加生成した画像(右)。生成した画像をLooking Glassの画像管理アプリにドラックアンドドロップするだけで、立体として表示される(筆者作成)
さらに、拡張機能のDepthは動画にも適用できます。たとえば、動画生成AIのRunway「Gen-2」で生成した動画を「Single Video」タブに設定して生成すると、Depthを追加した動画を生成してくれます。生成されたAVIをMP4に変換する作業は別途必要になりますが、Looking Glass Portrait上で見られるようになります。ただし、ビデオメモリーは12GB以上、NVIDIA GeForce RTX 4090でも4秒の動画を生成するのに7分あまりかかり、それなりにスペックは要求されます。
Looking GlassもDepthサービス、しかしStable Diffusionのほうが精度は上
Looking Glassはいま、これらの技術をウェブ用に展開した「Looking Glass Blocks」というサービスを展開しようとしています。
半年前からQuiltには対応していましたが、8月24日に、2Dの写真をアップロードすると、新たに自動で深度情報付き画像に変換して表示してくれるという機能が付きました。擬似的な3DをSNSなどで簡単に共有することができるのがメリットです。現在は月に20枚まで無料で使えます。また、アップした画像はLooking Glass Portraitにボタンひとつで表示可能。将来的には、このアップロード枚数の部分に課金要素を絡めてくるのだろうと予想しています。
ただ、現状の深度情報の生成には古いアルゴリズムが使われているようで、Stable Diffusionに搭載されているものに比べると見劣りがするのが正直なところ。この点には改善を求めたいところです。
https://blocks.glass/sakugetu/9156
▲冒頭の画像をBlocksにアップしたもの
https://blocks.glass/sakugetu/9153
▲筆者がMidjourneyで生成した画像をBlocksにアップロードしたもの
![](/img/blank.gif)
この連載の記事
-
第68回
AI
AIが作る3Dモデルの完成度が上がってきた 毎回異なるモンスターが生成されるゲームも実現か -
第67回
AI
アドビの画像生成AI機能がまた進化 白黒3Dモデルがリアルな都市に -
第66回
AI
有名人そっくり、増え続けるAI音声 “声の権利”どう守る -
第65回
AI
画像生成AIに照明革命 日本と世界で同時に“神ツール”登場 -
第64回
AI
自分好みのAIチャット相手を簡単に作れる「Dify」が面白い -
第63回
AI
まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性 -
第62回
AI
動画生成AI、映像制作の“民主化”目指して研究進む -
第61回
AI
画像生成AI“児童ポルノ”学習問題、日本では表現規制の議論にも -
第60回
AI
3Dアニメーション技術の革新が止まらない -
第59回
AI
政府、生成AI推進に向けて議論を加速 -
第58回
AI
画像生成AIで同じキャラクターが簡単に作れるようになってきた - この連載の一覧へ