このページの本文へ

脳で想像したのと「同じ意味」の画像を表示、阪大が新技術

2022年03月24日 06時11分更新

文● nakajooo

  • この記事をはてなブックマークに追加
  • 本文印刷

大阪大学の研究チームは、被験者が見た画像の意味を頭蓋内脳波から推定する脳情報解読技術を開発。この技術を用いて、被験者が想像したのと同じ意味の画像を画面に表示できることを世界で初めて実証した。さらに、被験者が画像を見ながら別の意味の画像を想像する際の脳活動の特徴を明らかにし、想像した画像の意味内容を推定できることを示した。

大阪大学の研究チームは、被験者が見た画像の意味を頭蓋内脳波から推定する脳情報解読技術を開発。この技術を用いて、被験者が想像したのと同じ意味の画像を画面に表示できることを世界で初めて実証した。さらに、被験者が画像を見ながら別の意味の画像を想像する際の脳活動の特徴を明らかにし、想像した画像の意味内容を推定できることを示した。 この技術は、言語モデルの意味空間を用いて脳信号を解読することにより、被験者が想像している画像を推定するというもの。言語モデルの学習には、ウィキペディアにある大量の文章を用いた。実験では、視覚野周辺に頭蓋内電極を留置された17人の被験者が、風景、動物、文字、ヒトといったさまざまな意味内容が含まれている60分の動画を視聴。その際の頭蓋内脳波を計測することで、被験者が視聴している動画の意味内容を推定した。 さらに、研究チームは同技術を用いて、被験者が想像した意味内容の画像を表示するシステムを開発した。次に、頭蓋内脳波を計測されている4人の被験者に対し、頭蓋内脳波から推定された画像を250ミリ秒ごとに画面に表示。同時に、風景・文字・人の顔のうちから1つの指示を音声で被験者に与え、指示された意味の画像を視覚的に想像してもらった。すると、想像したカテゴリーの画像(風景・文字・人の顔)を画面に表示できることがわかった。 本研究成果は2022年3月18日に、英科学誌「コミュニケーション・バイオロジー(Communications Biology)」に公開された

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ