このページの本文へ

新清士の「メタバース・プレゼンス」 第144回

わずか4秒の音声からクローン完成 音声生成AIの実力が想像以上だった

2026年02月16日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

“ASMR風”の音声も再現可能

 一方で、性能が高いとはいえ、音声AIの弱点には、人間と比べて感情表現に幅が生まれないという限界があります。リファレンス音声だけで、感情を表現する演技がどれくらいできるのかを探りました。

 試したのは、音楽生成AIサービス「Suno」で作った楽曲から、Stem機能で音声だけを分離して、その音を使ってみるという実験です。楽曲の冒頭9秒を切り出して読み込ませ、連載原稿を読み上げさせてみます。生成された32秒の音声では、音楽の特有の節が入り、コンサート会場でラップでもしているか、マイクパフォーマンスでもしているかのような音声になりました。音声にはエコーが残っていたので、音声にもエコーが付いていました。

 楽曲と一緒に読み込ませた場合には、途中で突然声にノイズが入ったりするので、やはり声だけしっかり分離した状態にしたほうが良いようです。

▲Sunoで作成した歌声で生成した音声

 ASMR系のボイスで試すとどうでしょうか。「ささやき声」を標準で持っている音声合成モデル「天深シノ」の音声を、AivisSpeechで作成し、その声を10秒読み込ませ、生成された音声で話させてみます。

 ASMR系シチュエーションの簡単な台本を、ChatGPTに作らせて、それを読み上げさせました。プロンプトでできるだけゆっくりといった指示をしているのですが、なかなか言うことを聞いてくれない、しばらく黙るということができないといった課題はありますが、参考にしている声にそれなりに合わせてASMR風の音声が出ています。

 比較として、前半25秒は天深シノの声で、後半25秒は田中さんの声で同じ台本を読ませています。かなり、雰囲気が変わることがわかります。

▲ASMR風の音声(天深シノと田中さん版)

カテゴリートップへ

この連載の記事
ピックアップ