このページの本文へ

0.2秒後の表情をAIで予測、3Dアバターに反映=KDDI総研

2022年03月01日 06時53分更新

文● MIT Technology Review Japan

  • この記事をはてなブックマークに追加
  • 本文印刷

KDDI総合研究所は、画像認識技術で抽出した顔の表情データから、人工知能(AI)で未来の表情を予測する技術を開発した。3Dアバターを用いた接客や会議、バーチャルイベントなどに利用することで、現実空間の人のまばたきや口の動きを遅延なく表現でき、仮想空間上でより快適な体験を提供することが可能となる。

KDDI総合研究所は、画像認識技術で抽出した顔の表情データから、人工知能(AI)で未来の表情を予測する技術を開発した。3Dアバターを用いた接客や会議、バーチャルイベントなどに利用することで、現実空間の人のまばたきや口の動きを遅延なく表現でき、仮想空間上でより快適な体験を提供することが可能となる。 一般的に、利用者の表情を認識し、3Dアバターに反映させるまでには遅延が生じる。快適に会話するためには、映像や音声の遅延を0.15秒以内に抑えることが必要とされている。KDDI総合研究所は、AIを利用して0.2秒後の表情を予測し、常に先読みしてアバターを描画することで、表示の遅延を相殺した。 顔の表情は、手や足といった骨格の動作と比較して、時系列データが急激かつ複雑に変化することから、瞬時に高精度な予測をすることが難しい。今回、同研究所は、機械学習モデル(再帰型ニューラルネットワーク)への入力データとして、表情データそのものに加え、表情データの単位時間当たりの変化量を使用することで、処理の負荷を増やすことなく、未来の表情データを高精度に予測できるようにした。

(中條)

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ