このページの本文へ

前へ 1 2 3 次へ

新清士の「メタバース・プレゼンス」 第65回

画像生成AIに照明革命 日本と世界で同時に“神ツール”登場

2024年05月27日 07時00分更新

文● 新清士 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

二次元画像を“三次元”にする技術に派生

 そしてさらに、ここにも応用例が出てきています。toyxyzさんが発表した、「Line2Depth」というLoRAです。

 これは、かたらぎさんの技術を参考にして、アニメ塗り専門のControlNetのDepth(深度)を生成しようという試みです。一般的に深度生成をする場合には、写真などを使って学習します。しかし、写真が学習元であることもあり、「Marigold」といった性能の高い深度アルゴリズムでも、アニメ系の2D画像では、うまくDepthを生成することができませんでした。そもそも立体感が存在しないものなので難しいのも当然です。

左から、オリジナル画像(背景は認識しやすいように削除してある)、Line2Depth、Marigold。Line2Depthが精度高く奥行き感を生成できている。精密に出力されるもののアニメ画像は得意でないMarigoldは平板な印象がする

 ところが、Line2Depthはその問題を解決し、アニメ的な2D画像にきちんと奥行き感のある深度データを作ることに成功したのです。キャラクターデータを使って学習させていることから、背景に対しては深度情報を正しく生成できないという問題はあるのですが、これまでとは一線を画するほどにディティールのある深度情報画像が生成できます。

別例。アニメ風キャラクターを、Line2Depthで生成したDepth(中央)、Marigold(右)。Marigoldでは服や眼鏡が完全に潰れてしまっている

 深度情報は、立体視環境のデータとしても扱えるので、作成したデータを裸眼立体視デバイスの「Looking Glass Portrait」に出力してみました。動画でもはっきりと、顔や体のラインが立体化しているのがわかると思います。これはMarigoldの出力データでは、もっと平板になってしまうのでここまで立体感がはっきりと出ません。

△筆者のLooking Glass PortraitにLine2Depthで生成した画像を表示した状態

 当然、この情報は3D情報として組み込んでいくことができるので、3Dソフトにも組み込めます。まだまだ、潜在的な応用範囲の広さを予感させる技術でもあります。

画像生成AIの革新が“ホビー”から生まれている

 興味深いのは、AI-Assistantをめぐる技術発展は、専門の研究者から登場したのではなく、在野のホビーユーザーが中心となって生み出されたということです。論文や学会といった場で発表されないために、情報の伝播には限界はあるのですが、それでも、インターネットを通じての技術革新が進み、新しい表現方法の発見が進められています。

 画像生成AIは、単純に画像を生成するという技術は、すでにありふれたものになりつつあります。ControlNetやLoRAの開発手法や学習手法の確立が進んできたことで、よりポストエフェクト的な効果の開発に広がりつつあります。AI利用者の表現の選択肢の広がりがさらに進んできています。より複雑な表現を求める利用者と技術者とのキャッチボールによって、技術の成長が続いています。

 

筆者紹介:新清士(しんきよし)

1970年生まれ。株式会社AI Frog Interactive代表。デジタルハリウッド大学大学院教授。慶應義塾大学商学部及び環境情報学部卒。ゲームジャーナリストとして活躍後、VRマルチプレイ剣戟アクションゲーム「ソード・オブ・ガルガンチュア」の開発を主導。現在は、新作のインディゲームの開発をしている。著書に『メタバースビジネス覇権戦争』(NHK出版新書)がある。

前へ 1 2 3 次へ

カテゴリートップへ

この連載の記事
ピックアップ