このページの本文へ

前へ 1 2 3 次へ

ちょっとした改造で3Dモーション・センシングがより身近に

MSが格安「Kinect」プロジェクト - スマホ用も?

2014年08月22日 19時00分更新

文● 鈴木淳也(Junya Suzuki)

  • この記事をはてなブックマークに追加
  • 本文印刷

現状の問題と今後への期待

 技術自体が研究段階であり、もちろんいくつかの制限や問題点が現段階でも指摘されている。

 まず「近距離でのモーション・センシング」に割り切っているため、IRの照射範囲であるデバイスの眼前でしか物体を認識できない。しかも「人間のモーション」を読み取ることに注力しているため、IRの反射信号からモーションを認識できるのは「人肌」に限定されている。つまり、表面が肌の物体でない限り、そのモーションや形状を正確に把握できない。例えば人の顔を認識して表情を読み取るアプリケーションがあった場合、マネキンを目の前に置いて顔を動かしても、その形状は本来のものとは異なって認識されてしまう(YouTube動画の最後の部分で実証している)。

例えば人の顔を認識して表情を読み取るアプリケーションがあった場合、マネキンを目の前に置いて顔を動かしても、その形状は本来のものとは異なって認識されてしまう

 もうひとつはカメラに起因する問題だ。キャリブレーションのような形で物体の状態を学習してモーションを読み取ることで、正確なモーション認識を行なえるようになる。逆に、学習ステップを省くために汎用的なデータを他のデバイスへと展開した場合、カメラやソフトウェア環境にエフェクトのような機能が備わっていると正確な認識が行なえなくなる。デバイスや環境ごとの差異が加わると動作不良を起こしやすいということだ。

 また、前述の改造テクニックによってカメラを深度センサーへと変換してしまうと、IR信号しか読み取れなくなり、汎用のカメラとして利用できなくなる。これではカメラモジュールをふたつ以上搭載する必要があるため、コスト的効果は薄くなる。Microsoftによれば、OmniVisionやAptinaなどが従来のRGBに加え、IR情報も読めるRGBIのカメラモジュールを開発しており、将来的にこうした問題をクリアできる可能性があるとしている。

 応用範囲はさまざま考えられるが、まず「市販の汎用デバイスに深度センサーが高い確率で搭載される」という関門をクリアするだけで、アプリケーションやサービス開発の進展が期待されるため、3Dモーション・センシングの普及にとって大きなインパクトとなるだろう。既存センサー装置も含め、現在はまだハードウェア上の問題をクリアする段階にあり、実際の応用事例は後からついてくるものだと考えられる。


■関連サイト

前へ 1 2 3 次へ

カテゴリートップへ

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン