Stable Diffusionでどんな画像も「立体」に
設定は簡単です。Stable DiffusionのDepth Extentionを選択後、「Combine input and depthmap into one image」のボタンをチェックして画像を生成。これをLooking Glass Portraitに持ち込むだけで立体視として見られます。実写風の画像から、アニメ風の画像まで、何でも立体視で見られるようにしてくれます。
この面白さを誌面で伝えるのは難しいのですが、画像単体では感じられない実在感が一気に増します。Stable Diffusionでかわいい女の子を作っているような人はたくさんいると思いますが、その画像からさらに手軽に実在感を感じられるようにする方法としては素晴らしいものです。
Stable DiffusionのDepth Extensionを使って、Midjourneyで生成した画像に、深度情報を追加生成した画像(右)。生成した画像をLooking Glassの画像管理アプリにドラックアンドドロップするだけで、立体として表示される(筆者作成)
さらに、拡張機能のDepthは動画にも適用できます。たとえば、動画生成AIのRunway「Gen-2」で生成した動画を「Single Video」タブに設定して生成すると、Depthを追加した動画を生成してくれます。生成されたAVIをMP4に変換する作業は別途必要になりますが、Looking Glass Portrait上で見られるようになります。ただし、ビデオメモリーは12GB以上、NVIDIA GeForce RTX 4090でも4秒の動画を生成するのに7分あまりかかり、それなりにスペックは要求されます。
Looking GlassもDepthサービス、しかしStable Diffusionのほうが精度は上
Looking Glassはいま、これらの技術をウェブ用に展開した「Looking Glass Blocks」というサービスを展開しようとしています。
半年前からQuiltには対応していましたが、8月24日に、2Dの写真をアップロードすると、新たに自動で深度情報付き画像に変換して表示してくれるという機能が付きました。擬似的な3DをSNSなどで簡単に共有することができるのがメリットです。現在は月に20枚まで無料で使えます。また、アップした画像はLooking Glass Portraitにボタンひとつで表示可能。将来的には、このアップロード枚数の部分に課金要素を絡めてくるのだろうと予想しています。
ただ、現状の深度情報の生成には古いアルゴリズムが使われているようで、Stable Diffusionに搭載されているものに比べると見劣りがするのが正直なところ。この点には改善を求めたいところです。
https://blocks.glass/sakugetu/9156
▲冒頭の画像をBlocksにアップしたもの
https://blocks.glass/sakugetu/9153
▲筆者がMidjourneyで生成した画像をBlocksにアップロードしたもの

この連載の記事
-
第134回
AI
“AI読者”が小説執筆の支えに 感想を励みに30話まで完成 -
第133回
AI
xAIの画像生成AI「Grok Imagine」が凄まじい。使い方は簡単、アダルト規制はユルユル -
第132回
AI
画像生成AI:NVIDIA版“Nano Banana”が面白い。物理的な正確さに強い「NVIDIA ChronoEdit」 -
第131回
AI
AIに恋して救われた人、依存した人 2.7万人の告白から見えた“現代の孤独”と、AI設計の問題点 -
第130回
AI
グーグルNano Banana級に便利 無料で使える画像生成AI「Qwen-Image-Edit-2509」の実力 -
第129回
AI
動画生成AI「Sora 2」強力機能、無料アプリで再現してみた -
第128回
AI
これがAIの集客力!ゲームショウで注目を浴びた“動く立体ヒロイン” -
第127回
AI
「Sora 2」は何がすごい? 著作権問題も含めて整理 -
第126回
AI
グーグル「Nano Banana」超えた? 画像生成AI「Seedream 4.0」徹底比較 -
第125回
AI
グーグル画像生成AI「Nano Banana」超便利に使える“神アプリ” AI開発で続々登場 -
第124回
AI
「やりたかった恋愛シミュレーション、AIで作れた」 AIゲームの進化と課題 - この連載の一覧へ









