このページの本文へ

構音障害者「本人の声」で明瞭な音声を合成、GAN活用で新技術

2022年04月23日 07時57分更新

文● MIT Technology Review Japan

  • この記事をはてなブックマークに追加
  • 本文印刷

システム開発などを手掛けるヒューマンテクノシステムと東北大学の研究グループは、発話障害者の声で明瞭な音声を合成する技術を開発した。発声器官などの問題で発音が不明瞭な構音障害を持つ人の声と、健常者の声を学習し、明瞭な音声を生成する。

システム開発などを手掛けるヒューマンテクノシステムと東北大学の研究グループは、発話障害者の声で明瞭な音声を合成する技術を開発した。発声器官などの問題で発音が不明瞭な構音障害を持つ人の声と、健常者の声を学習し、明瞭な音声を生成する。 喉頭がんや筋委縮性側索硬化症(ALS)などで声を失った人向けに、事前に収録した本人の音声を使って音声合成データを生成し、読み上げる方法はすでに実用化されている。ただ、発音が不明瞭な構音障害を持つ人の場合は、生成される合成データも不明瞭だった。そこで研究グループは、敵対的生成ネットワーク(Generative Adversarial Networks:GAN)の一種であるCycleGANを利用して、健常者の音声から音韻や韻律を保ったまま構音障害者の声色に変換した。学習データとなる構音障害者の音声は、健常者の音声と比べて話速が非常に遅い、抑揚に乏しいなどの特徴があるため、学習データに話速や声の高さを調整する前処理を導入することで高品質の音声を生成するという。 研究成果の一部は、3月8日に開催された電子情報通信学会・福祉情報工学研究会で発表された。研究グループは今回開発した技術をさらに改良して、2023年度の実用化を目指すとしている。

(笹田)

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ