このページの本文へ

深層学習で脳内の言葉を「発声」、コロンビア大学が新成果

2019年01月31日 08時55分更新

文● Charlotte Jee

  • この記事をはてなブックマークに追加
  • 本文印刷

人間が聞いたことをニューラル・ネットワークを使って認識し、明瞭な音声に変換することに成功した。この事実は、人間の思考を解読するテクノロジーへの大きな一歩となるかもしれない。

MRI(機能核磁気共鳴断層装置)のおかげで、人々が話したり、他人の話を聞く際、脳内の特定部分が活性化される事実は数十年前から知られている。しかしながら、思考を言葉に変換することは極めて難しい。このほどコロンビア大学の研究チームは、深層学習を音声合成技術と組み合わせることで、まさにその変換をするシステムを開発した。

研究チームは、脳外科手術を予定している5人のてんかん患者の脳内に、一時的に電極を埋め込んだ(この手術を受ける患者は、発作についてより詳しく調べるため、しばしば脳内にインプラントが埋め込まれる)。5人の患者は文章を録音した音声を聞くように求められ、患者の脳活動は深層学習をベースとした音声認識ソフトの訓練に利用された。その後、患者は40の数字が発話されるのを聞いた。人工知能(AI)は、患者の脳活動を基に患者が聞いたことを解読し、その結果をロボットの音声で発声した。結果を直接聞いた患者によると、音声合成装置による音声の75%は正しい言葉として理解できたという。実験結果は1月29日付のサイエンティフィック・リポーツ(Scientific Reports)に掲載されている。

現在のところ、このテクノロジーは患者が聞いた内容を再生することしかできない。しかし、いつの日か、発声能力を失い麻痺状態にある人が、家族や友人とコミュニケーションをとれる日が来るかもしれない。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ