このページの本文へ

新清士の「メタバース・プレゼンス」 第123回

グーグルの画像生成AI「Nano Banana」は異次元レベル AIコンテンツの作り方を根本から変えた

2025年09月08日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

高性能の秘密はグーグルの“力業”か

 この仕組みはどうなっているのか。AIエンジニアの動詞さんがその仕組みを解説しています。2025年3月に書かれた記事と基本的には同様であろうと推測されています。

 重要なのは、画像も音声もテキストもすべてをリファレンスできるモデルに入れる「Any-to-Any(すべてからすべて)」の考え方です。従来は画像やテキストが別々にAIを学習させていましたが、すべて抽象概念として処理してトークン化してしまい、一つのモデルで学習させてしまう。そうすることで、種類を問わずにそれぞれのトークンを参照できるようにするというものです。

 2023年12月に発表された米アレン人工知能研究所が中心になって実施した研究「Unified-IO 2: 視覚・言語・音声・動作を統合した自己回帰型マルチモーダルモデルの拡張」では、any-to-anyモデルである「Unified-IO 2」が、テキスト、画像、画像の変化過程、オーディオ、オーディオの変化過程といった情報を入力することで、様々なバリエーションのあるデータを出力できるようになると説明されています。

「Unified-IO 2: 視覚・言語・音声・動作を統合した自己回帰型マルチモーダルモデルの拡張」のP.4より

 また、学習量を増加させれば、その性能が向上することが証明されています。10億、30億、70億とパラメーター数を向上させると、学習の失敗が減少する傾向がはっきりと出ており、モデルのスケールアップをすると予測力を着実に上げるというスケーリング則が観察できることがわかっています。単純に言えば、この方式は、多数のデータで学習を進めれば進めるほど性能が上がるということが証明されているのです。

「Unified-IO 2: 視覚・言語・音声・動作を統合した自己回帰型マルチモーダルモデルの拡張」のP.5より

 関連する研究は、2023年末から2024年初めにかけて登場したとされていますが、グーグルはそれらの研究を取り込み、データも計算資源も豊富に持っているために、強力に学習を進めて今回のモデルを作成できたということでしょう。要するに、方法論は確立されており、力業で、実現までたどり着いていると言えるのです。

カテゴリートップへ

この連載の記事
ピックアップ