言葉で命令するだけで音楽をかけたり、家電が操作できるスマート・スピーカーは確かに便利だ。だが、人間は怠惰な生き物なので、次はきっと言葉を発することなく、考えるだけでいろんなことをやってくれるデバイスが欲しくなるだろう。
AIST-CNRSロボット工学研究ラボ(産総研とフランス国立科学研究センターの共同研究部門)と東京工業大学、大阪大学は共同で、新たな脳コンピューター・インターフェイス(BCI)技術を考案した。脳の予測機能を利用して、運動意図を脳波から高速かつ高精度に読み取れるのが特徴だ。BCIの研究はすでに20年以上続いているが、従来は操作者個人の脳波の特徴に合わせて装置を訓練したり、操作者に画像を見せたときの反応を検出したりといった手間が必要だった。研究チームが考案した手法は、操作者の事前訓練を必要とせず、従来よりも高精度で運動意図が推定できるという。
BCIの目標は、脳波信号を使って機械を思い通りに操作することだ。研究チームは、腕を失った人が思い通りに動かせる義手の実用化などへの応用を期待している。一方、言葉を発せずに意志を伝えるコミュニケーション・ツールや、エンターテインメント分野での利用も海外では注目されている。2017年春にはフェイスブックがBCIによるコミュニケーション・テクノロジーの開発を開始し、開発チームのリーダーは「2年間でこの種のテクノロジーを消費者向け製品に組み込めるのか判断できる」と述べている。現時点では一般ユーザー向けの製品を作る予定はないようだが、大手テック企業が目を付けていることから、市場性には期待がもてそうだ。