グーグルは5月14日(米国時間)に開催した開発者向けイベント“Google I/O”で、音楽生成AI「Music AI Sandbox」を発表した。本連載でも昨年、グーグルが音楽生成AIの「MusicLM」を発表したことに触れた。また、Metaも音楽生成AIとして「Audiobox」を発表。AI大手のStability AIも「Stable Audio」をバージョン2.0に進化させている。
では、Music AI Sandboxの位置付けとはどういうものだろうか。
AIは音楽クリエイターの仲間なのか
まず、Music AI Sandboxは、グーグルの母体アルファベットでAI開発を担当するGoogle DeepMindが手がけた音楽生成AIである。具体的にどういうものかは、Google DeepMindが公開した動画を見るとわかりやすい。
ここではプロデューサーでありミュージシャンでもあるWyclef Jean氏がギターを弾いている。「もしハイチがブラジルに出会ったらどうなる?」と言いながら、AIにそのメロディーを入力してブラジル風というメニューを選択し、「Transform」ボタンを押す。彼は「俺もなにが起こるかはわからないんだぜ(かなりラフな英語を使っている)」と言いながら、AIが生成した音楽に思わずノって一緒に歌い出してしまう。
さらに「ヒップホップのプロデューサーとして、いつもビート探し(dig in the crates)をしてるんだが、その時にレコードの一部を使って再作成することがある。これはそうした音楽の切り貼りをバーチャルにやりながら永遠にできるんだ」と感嘆している。Music AI Sandboxは一般公開されていないが彼が作成した音楽を聴くことはできる。
この動画では、さらに何人ものソングライターやプロデューサーが登場。ミュージシャンやスタッフと共同で音楽制作をする現場を映す。最後にまたWyclef Jean氏が登場して「このツールは俺が頭の中で考えることをスピードアップすることができる。創造力を光速に加速できるんだ。すごいよ」と語っている。
このことから分かるのは、まずMusic AI Sandboxのターゲットが音楽家やプロデューサーなど、プロの音楽家であるということだ。また、生成した楽曲のクオリティーもプロが納得するものであると言うことだ。実際、Wyclef Jean氏の制作したサンプル曲のクオリティはかなり高い。
技術的には、Google DeepMindが昨年開発したLyriaというAIモデルをベースにしている。同社は「音楽には複数の声と楽器が同時に含まれるので、会話よりも生成がはるかに困難だ」としており、長尺の音楽においても一貫性を保ちながら高品質な音楽を生成できるAIモデルとしてLyriaを開発した。グーグルは、その発表時にも一般向けの「Dream Track」と音楽家向けの「Music AI Tools」の2つを発表している。Music AI Sandboxもそうしたツールのひとつだと考えられる。おそらくはMusic AI Toolsをさらに発展させたものなのだろう。
この連載の記事
-
第300回
AV
インド発の密閉型/静電式ヘッドホン? オーディオ勢力図の変化を感じた「INOX」 -
第299回
AV
夏のヘッドフォン祭 mini 2024レポート、突然のfinal新ヘッドホンに会場がわく! -
第298回
AV
ポタフェス2024冬の注目製品をチェック、佐々木喜洋 -
第297回
AV
なんか懐かしい気分、あなたのApple WatchをiPodにする「tinyPod」が登場 -
第296回
AV
逆相の音波で音漏れを防げる? 耳を塞がないヘッドホン「nwm ONE」──NTTソノリティ -
第295回
AV
NUARLのMEMS搭載完全ワイヤレス「Inovatör」(旧X878)の秘密とは? -
第294回
AV
AirPodsで使用者の動きからBPMを認識、それを何かに応用できる特許 -
第293回
AV
次世代AirPodsにはカメラが付くらしい、じゃあ何に使う?(ヒント:Vision Pro) -
第292回
AV
OTOTEN発、LinkPlayの多機能ネット再生機「WiiM」とSHANLINGの「EC Smart」を聴く -
第291回
AV
ビクターの新機軸、シルク配合振動板の魅力とは? HA-FX550Tを聴く -
第290回
AV
HDTracksがMQA技術を使ったストリーミング配信開始へ - この連載の一覧へ