ナチュラル・インターフェースとアバターを使って遠隔ライブ
基調講演の後半は、ビル・ゲイツ氏の講演(関連記事)でもテーマのひとつであった「自然なインターフェース」(ナチュラル・インターフェース)とネットを組み合わせて実現されるユーザー体験が、ボリュームのあるデモで披露された。デモは、ロックバンド「Smash Mouth」のボーカル、スティーブ・ハーウェル(Steve Harwell)氏をゲストに招き、会場外にいるバンドメンバーとインターネットを経由してライブを行なう、という筋立てで行なわれた。
まず、遠隔地のユーザー同士がネット経由で遅延のないリアルタイムセッション(共演)を行なえるという、eJamming社の「eJamming AUDiiO」を使い、バンドメンバー同士の共演を実現してみせる。
さらに映像も加えたセッションを実現すべく、3Dグラフィックスでアバターを作り、それをリアルタイムのモーションキャプチャーで動かすことが行なわれた。話だけ聞くと恐ろしく大がかりそうだが、これを簡単に実現するのが、ナチュラル・インターフェースとソフトウェアのパワーというわけだ。
アバター作成には、Big Stage Entertainment社のウェブサービス「BigStage Beta」を使用した。BigStageでは、人の顔写真3点(正面と斜め左右)を取り込み、3Dグラフィックのアバターを作ることができる。制作作業に難しい操作は必要ない。詳細は語られなかったが、アバターの顔部分に顔写真を貼るという単純なものではなく、顔の画像を解析して、顔の形状を立体的に再現しているようだ(ある種のディスプレイスメントマッピングか?)。
作られたアバターは3Dデータなので、髪型を変えたり、アクセサリーを付けたりするのも自由自在。デモでは、モヒカン頭に鼻輪付きのアバターを作ってみたりして、笑いを誘っていた。そうこうするうちにスクリーンには、ガレージ風のセットにバンドメンバーのアバターが並ぶバーチャルステージが表示される。
そして実際のセッションでは、ハーウェル氏が歌う際の身振りを、リアルタイムでモーションキャプチャーして、アバターの動きとして再現するという処理も行なわれた。この処理で使われたモーションキャプチャーは、CG制作で使われるようなキャプチャー用のスーツを着る必要はない。ハーウェル氏は普段着のまま、灰色の幕の前で歌う。それをビデオカメラで撮影して、リアルタイムの画像解析によって動きのデータ化を行ない、そのデータでアバターを動かすのだ。
e-Jammingで音楽を、アバターとモーションキャプチャーでステージ上のバンドメンバーを映像化することで、まったく離れたところにいる人同士が、映像付きのライブを繰り広げる様は見事なものだった。デモで使用されたソフトウェアが一般的なPCで利用できるようになれば、新しい楽しみが生まれるだろう。例えば、「Guitar Hero」のような音楽ゲームで、離れた場所にいる人同士が(しかも演奏する自分の映像付きで)対戦するなんてことは、この仕組みを使えば難しいことではないだろう。さらに、それをほかのプレイヤーが映像で観戦したり、バーチャルな大会を行なうこともできそうだ。可能性は限りなく広い。
講演の最後にオッテリーニ氏は、新しいビジネスモデルの創出にインテルは協力していきたいと述べ、家電業界に対して「素晴らしいものを、一緒に作っていきましょう」と呼びかけて締めくくった。