このページの本文へ

『魔法少女?なりあ☆がーるず』の生でアニメをつくるさまに潜入

20万円のモーキャプが、“アニメの現場を変えるさま”を体験

2016年08月16日 18時00分更新

文● MOVIEW 清水 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

立ち位置としては、週刊漫画雑誌の最後にあるギャグ作品

――毎週金曜日に撮影しながらネットで生放送。その素材を使って地上波に放送する分の完パケを制作されるわけですが、編集の苦労などはありますか?

石ダテ監督 今日ここで撮影したものは、明日1日かけて僕がオフライン編集します。そして、その次の日の日曜日にMAと本編集をして、月曜の朝一にテレビ局へ納品する感じですね~。おかげで金・土・日が3ヵ月間まるっとつぶれてる状態ですね(笑)。

 だから1週間経つのが、ものすごく早いんですよ!! 7日あるはずの僕の1週間が、4日間になってるから(笑)。でも本作が終わるまで、休んでいられる状態ではないのでがんばっています。

――なかなか厳しいスケジュールです。クオリティーを維持するのが大変そうですね。

石ダテ監督 本来であれば、この撮影素材を使って普通にアニメを作ろうと思ったら、レタッチなどの仕上げが必要になってくるだろうなと思います。それが生放送だから許されてる……許されてるというとおかしいですけど、いまは生放送がメインでありつつ、それをたった2日間で編集して納品して地上波で流しているという実験的なスタイルだからこそだと思っています。

 ほぼ、撮って出しに近い素材で「えいやっ」とできあがったものを、はい食べてくださいってお客様にお出しする感じになってしまうため、職人的な仕事はできていないのですが、こういう“お祭りだ”と思って割り切っています。現場でのハプニングも含めて、こういうドタバタも楽しみとしてとらえてくれる方向けの作品だと考えて作業しています。

 なりあ☆がーるずは、イメージとしてはアニメや声優のファンに向けたパロディ作品であり、ギャグ作品です。たとえば週刊の漫画雑誌で、いちばん最後に載っている短いギャグマンガをイメージしてほしいです。僕は、雑誌の看板になるような“ストーリーマンガ”を描きたいわけではない。雑誌を全部読み終わって、最後にそのギャグマンガを読んで笑ってもらえるような“ギャグマンガ”を描きたいんです。

 アニメ業界の中でも、そういう立ち位置を狙っています。1クールにたくさんのアニメを観ている方の、最後の1本に加えていただけるような作品を目指していますね。

――普通のアニメとは、そもそものアプローチが違うわけですね!

石ダテ監督 そうです。例えば、普通のアニメでは一番大切にするストーリーが大きく動く部分は止め絵でやっつけてしまっているのに対して、どうでもいい登場人物3人が集まっての雑談場面は長々と続く。そういうコンセプトになっています。

 ストーリーの構成上いらないでしょ? というところばかりCGでぬるぬる動く。だからそれを楽しんでくださる方には受け入れていただけると思うんですけど、普通のアニメをイメージして観ると「なんじゃこりゃ?」となる作品だと思いますね。

3Dキャラが動くけど、実写と変わらない感覚で作れる

――さきほど、みならいディーバで物足りなかった部分を改善しているとおっしゃってましたが、具体的にはどのようなことができるようになったのでしょうか。

石ダテ監督 みならいディーバではできなかった、3人以上を一度に動かすことができるようになりました(笑)。

cort カメラの自由度も上がりましたね。

石ダテ監督 画面のスイッチング(切り替え)が、ライブ映像を見ながらできるようになりました。普通のテレビと変わらないというか、ほぼ実写の生放送をしているのと同じ感覚で配信できると思います。

――その肝となるのが、KiLAという独自のシステムですね。

石ダテ監督 はい。NEURONというセンサーを使った、安価なモーションキャプチャーシステムがあって、個人でも手に入れられる環境が整いつつあります。だったら「これでシステムを作れるね」ということで、cortくんと、ほえたんというスタッフが作ってくれました。プログラムはほえたんが一人で作りました。

cort 僕がみならいディーバの現場で見てきたアイデアや改善点をほえたんに伝えて、絵が出てくるシステムを組み上げてもらうという役割分担ですね。

デリケートな調整と演出のバランスを取るのが大事

――現在のKiLAで、これがまだできていないというようなことはありますか?

石ダテ監督 欲を言えばきりがないですけど、3Dなので準備が必要という部分はあります。こういうことをしたい、ああいうことをしたいと現場で思いついても、モデリングをしないと実現できないですし、仮にモデリングができたとしても、キャラの手に何かを持たせようとすると、また別のむずかしさが出てくる。こういうできることととできないことがあるのが、難しいですね。

 向き不向きというか。ここはむしろ手描きで描いたほうが楽にできてしまうくらいなんです。だから、なるべくそういう向かないことは演出上、出していかないようにしています。例えば、現状のシステムで、キャラを椅子に座らせることもできるんですけど、そのためには“デリケートな調整”が必要になってしまいます。そこで基本的には、3人が立ち話をするだけで構成できる内容にするなど、ちょっとした苦労があったりしますね。

――デリケートな調整!? もう少し具体的に教えてもらえると嬉しいです。

cort 具体的にはモーションキャプチャーのキャリブレーションですね。NEURONは慣性式と呼ばれるタイプのモーションキャプチャーで、スタートするときの位置は合わせられるんですけど、時間が経つと徐々にずれてしまうんです。この位置をずらさないようにすることが今の技術では難しいんです。

 ピンポン球のついた専用のスーツを着る、光学式のモーションキャプチャーでは、カメラを何台も使って、絶対的な座標を決めます。カメラは固定されていて、自分はこの角度でこの方向を向いてますという情報が全部記録されてるので、アクター(演者)が動いても問題ありません(編注:ただし広いスタジオと高価な機材が必要)。

 しかし、慣性式モーションキャプチャーは、腕や脚などに付けたセンサーの動きを加速度センサーで検知して、関節の動きを予測していく仕組みです。絶対位置を観測して固定する機械はないため、どうしてもずれが生じます。

 またキャラクター同士の距離情報も取れません。時間が経つと実際のキャストの立ち位置と画面上のキャラクターの位置がずれてしまいます。センサーを付けたキャストが動けば動くほど、そのズレが大きくなりますし、キャラクターごとにずれる方向も違ってきたりします。その位置情報を戻すために、定期的にリセットする必要がありますが、生放送で撮影風景を観ている視聴者がいるので、流れを何度も切りたくありません。ここが難しいところです。

©なりあ☆がーるず製作委員会

カテゴリートップへ

注目ニュース

ASCII倶楽部

ASCII.jpメール アキバマガジン

クルマ情報byASCII

ピックアップ