グーグルは5月14日(米国時間)に開催した開発者向けイベント“Google I/O”で、音楽生成AI「Music AI Sandbox」を発表した。本連載でも昨年、グーグルが音楽生成AIの「MusicLM」を発表したことに触れた。また、Metaも音楽生成AIとして「Audiobox」を発表。AI大手のStability AIも「Stable Audio」をバージョン2.0に進化させている。
では、Music AI Sandboxの位置付けとはどういうものだろうか。
AIは音楽クリエイターの仲間なのか
まず、Music AI Sandboxは、グーグルの母体アルファベットでAI開発を担当するGoogle DeepMindが手がけた音楽生成AIである。具体的にどういうものかは、Google DeepMindが公開した動画を見るとわかりやすい。
ここではプロデューサーでありミュージシャンでもあるWyclef Jean氏がギターを弾いている。「もしハイチがブラジルに出会ったらどうなる?」と言いながら、AIにそのメロディーを入力してブラジル風というメニューを選択し、「Transform」ボタンを押す。彼は「俺もなにが起こるかはわからないんだぜ(かなりラフな英語を使っている)」と言いながら、AIが生成した音楽に思わずノって一緒に歌い出してしまう。
さらに「ヒップホップのプロデューサーとして、いつもビート探し(dig in the crates)をしてるんだが、その時にレコードの一部を使って再作成することがある。これはそうした音楽の切り貼りをバーチャルにやりながら永遠にできるんだ」と感嘆している。Music AI Sandboxは一般公開されていないが彼が作成した音楽を聴くことはできる。
この動画では、さらに何人ものソングライターやプロデューサーが登場。ミュージシャンやスタッフと共同で音楽制作をする現場を映す。最後にまたWyclef Jean氏が登場して「このツールは俺が頭の中で考えることをスピードアップすることができる。創造力を光速に加速できるんだ。すごいよ」と語っている。
このことから分かるのは、まずMusic AI Sandboxのターゲットが音楽家やプロデューサーなど、プロの音楽家であるということだ。また、生成した楽曲のクオリティーもプロが納得するものであると言うことだ。実際、Wyclef Jean氏の制作したサンプル曲のクオリティはかなり高い。
技術的には、Google DeepMindが昨年開発したLyriaというAIモデルをベースにしている。同社は「音楽には複数の声と楽器が同時に含まれるので、会話よりも生成がはるかに困難だ」としており、長尺の音楽においても一貫性を保ちながら高品質な音楽を生成できるAIモデルとしてLyriaを開発した。グーグルは、その発表時にも一般向けの「Dream Track」と音楽家向けの「Music AI Tools」の2つを発表している。Music AI Sandboxもそうしたツールのひとつだと考えられる。おそらくはMusic AI Toolsをさらに発展させたものなのだろう。
![](/img/blank.gif)
この連載の記事
-
第288回
AV
「AirPods Proの“会話を検知”だけじゃ不十分」──ワシントン大学が凝視するだけで相手の声を抽出する新技術 -
第287回
AV
Roon ARCがCarPlayやAndroid Autoに対応、車内で音声操作を -
第286回
AV
MQAに新動向、MQA技術の先にある「AIRIA」「FOQUS」「QRONO」とは? -
第285回
AV
新感覚のオーディオイベント「REB fes」を体験、自分だけのストーリー実現に悩もう! -
第284回
AV
JBLによる2つの新提案「LIVE BEAM 3」と「Fit Checker」を体験してきた -
第282回
AV
液晶をタッチして操作する、Volumioの新ネットワークプレーヤー「Motivo」 -
第281回
AV
HIGH END Munich 2024出展製品から、気になるエントリーオーディオをセレクト -
第280回
AV
水月雨がオーディオファン向けスマホを開発、複雑になりすぎたスマホ高音質再生への問いかけ -
第279回
AV
Chordの積み木型オーディオシステムが面白い、「Suzi」と「Suzi Pre」 -
第278回
AV
さすがにSpotifyもロスレス対応しそう、Redditユーザーがさらに解析結果をリーク - この連載の一覧へ