グーグルが5月14日に米国で開催した開発者会議「Google I/O」で、傘下のAI研究部門であるGoogle DeepMindが試作する音楽生成AI「Music AI Sandbox」を披露しました。発表の内容から、グーグルによる音楽生成AIがどんな形で世に出てくるのか読み解いてみたいと思います。
試作された「Music AI Sandbox」アプリ
一流ミュージシャンの使い方は?
Music AI Sandboxは、Google DeepMindが開発する最先端の音楽生成モデルである「Lyria(リリア)」をベースに開発された、プロフェッショナルの音楽クリエイター向けAIツールです。
Google I/Oの基調講演のステージ、ならびにこれを紹介するグーグル公式 ブログ記事では、まだプロダクト化の時期についてなど詳細は明らかにされていません。
ただ、基調講演と同時に公開されたグラミー受賞アーティストのワイクリフ・ジョン、ソングライターのジャスティン・トランター、エレクトロ系ミュージシャンのマーク・レビレットが登場する、YouTubeのデモンストレーションムービーからMusic AI Sandboxのコンセプトを読み解くことができました。
ムービーにはウェブアプリ化されたMusic AI Sandboxを、アーティストやスタジオエンジニアが活用する様子が映っています。
例えばワイクリフ・ジョンは、自身で演奏した楽器の音源をMusic AI Sandboxに取り込み「サンバ風のビート」を生成。コラージュ素材をAIでつくるワークフローが、「頭の中に描いているアイデアをより速く音楽作品に落とし込むために有効だった」とポジティブな評価を語っています。完成した楽曲『Right Here』もYouTubeに公開しています。
ジャスティン・トランターは、頭に浮かんだ言葉のインスピレーションを、ダイレクトに音楽のフレーズに変換するためのツールとしてMusic AI Sandboxを活用していました。ウェブアプリのテキストプロンプトに「1986年のParis Fashion Week(パリコレ)」という言葉を打ち込んで、生成された音楽をベースにしながら、さらに別のテキストプロンプトを追加しながら独特な雰囲気の音楽に仕上げるまでの過程がムービーに収録されています。
グーグルが目指す音楽生成AIのコンセプトは「クリエイターの支援」
音楽生成AIの開発はグーグル傘下のYouTubeも独自に力を入れる領域です。2023年冬にはGoogle DeepMindと一緒に試作した、いくつかの音楽生成AIが発表されています。そのひとつである「Dream Track」はテキストプロンプトからBGMを生成するもので、ユーザーターゲットにはYouTubeショート動画のクリエイターを想定しています。
ハミング(鼻歌)を楽器による演奏へ瞬時に変換する「Music AI Tooles」というツールも開発中です。
グーグルは開発中の音楽生成AIを、一部のアーティストやクリエイターに公開してフィールドテストを重ねています。プロダクトとして形になっているものはまだありません。
ただ、今年のGoogle I/OではMusic AI Sandboxを開発する目的が、「クリエイターの支援」であることが明快に強調されていました。方向性の一端が示された格好です。先述のデモムービーに登場する一流ミュージシャンたちも一様に、グーグルの取り組みに対してポジティブな態度を表明しています。そして、彼らがMusic AI Sandboxを上手に活用しながらハイレベルな成果物を創り出したことが、生成AIに対して否定的なクリエイターにも大きな「インパクト」を与えるのではないかと、筆者は思います。
今年の春にはYouTubeの音楽部門グローバル責任者であるリオ・コーエン氏が来日し、日本の記者を集めて会見を実施しました。コーエン氏は会見の中で、YouTubeが音楽業界と密接に連携しながら、独自の音楽生成AIの開発に力を入れる方針を発表しています(関連記事「YouTubeが独自の「音楽生成AI」開発に本腰 初音ミクのクリプトンとコラボを発表」)。
コーエン氏はまた、YouTubeが音楽創作にAIを活用するためのガイドラインとなる「AI Music Principles(音楽AIの基本的な考え方)」を立ち上げたことについても触れていました。ガイドラインの中には、生成AIの技術進化ばかりを追い求めるのではなく、クリエイターの権利を継続的に護りながら「新しい創造の可能性を切り拓くこと」に重きを置くYouTubeのスタンスが明言されています。