お掃除ロボット「ルンバ」もALifeの系譜から生まれた!
「ありえたかもしれない生命」を探るALife研究が、都市を生き物に変える
アンドロイドによるオペラ指揮
―― 藤木様がALifeに注目して、ALIFE Lab.と共同研究を始めたきっかけを教えてください。
藤木 イノラボのミッションは、先端テクノロジーを使って新しい未来を描いていくところにあるのですが、いつの頃からかテクノロジーが前面に出されたものに対して、人々が避けるようになったと感じているんです。
たとえば、当時スティーブ・ジョブズが「これは素晴らしい。PCが出て以来の新しい発明だ」などと言っていたセグウェイは生産中止になったり、最近でもGoogle傘下のSidewalk Labsがトロントで都市自体をデジタル化して便利な街にしようというプロジェクトは、住民の反対でリジェクトされています。
ツールとして合理的に、便利に、効率的に……と突き詰めても怖がられてしまう。であれば、テクノロジーが前面に出るのではなく、社会にいつの間にか受容されるような仕組みが必要ではないかと。
そんなときに知ったのが、池上さんの「アンドロイドがオペラの指揮をする」というプロジェクトでした。
人工生命が楽曲を成立させているさまを見て、「人間の理解を超えて成立している世界」こそがオルタナティブな未来を描くときに必要な考え方・価値観であり、そこから新しいテクノロジーも生まれるのではと感じたので、さっそく池上さんにコンタクトを取らせていただき、青木さんを紹介していただきました。2018年の年末ですね。
リッチな音環境によって自然を再生する
―― 以降、ALIFE Lab.とイノラボはどのような共同研究を続けているのでしょうか? また今後の予定などもお聞かせください。
青木 研究開発としては「音のニッチ仮説に基づくサウンドスケープ生成装置(ANH)」が挙げられます。
これはSFマンガをエスノグラフィーし、そこから思案したありうる未来から、研究テーマを探索する「SF Manga Design Research」という手法を独自に開発したことから始まります。イノラボのほか、SF作家の小川哲さん、アーティストの長谷川愛さん、そしてAIの専門家である三宅陽一郎さんなど、さまざまな方々にご参加いただきました。
結果、「集団に人工システムで介入し変化を引き起こすには?」というテーマに絞っていこうという話になり、音によるアプローチができないかと調べていくなかで、「音のニッチ仮説」というものにたどり着きました。自然の中に入ると全帯域で豊かな音が鳴っていますが、あれは生物たちがほかの音を避けるようにして棲み分けていったことで、あのような豊かな音ができあがっていったと考えられています。
それを実際に都市の中で作り出すことによって、人々が居心地のよさを覚えて、その結果、人が大勢集まってくるのではないかと。議論を進めていく過程で、個人的な思いもあり、人間のためだけではなく、自然を回復させる方向にコンセプトが固まってきました。
「死滅したサンゴ礁の跡地に、サンゴ礁が生きていた頃の音を流すことによって生物が戻ってくる」というネイチャーの研究があるのですが、その地上版として、生命の豊かな音を発生させることによって、失われてしまった生態系を取り戻せるのではと。それによって新しい都市と自然との関係性が作れるかもしれないという発想に行き着きました。
そのためにはリアルタイムでサウンドスケープ、音環境を作れるシステムが必要だということで、ALifeのエージェントなどコア技術は升森さんが中心となりALife研究者チームで開発中です。
―― そのシステムを展示している動画を見たのですが、どこかで実演されていたのですか?
藤木 「MUTEK.JP 2019」という、電子音楽とデジタルアートのイベントでANHのプロトタイプを展示してみました。
都市はもともと外敵が侵入できないように壁を立てて……という人間中心に作られてきたわけですが、昨今SDGs(持続可能な開発目標)のような課題があるなかで、(ANHのようなシステムを稼働させることで)ほかの生物ひいては地球環境全体にまで意識を向けさせることができるのではと。現在は、環境そのものを計測する研究を続けています。
この研究開発を通して、これまで自然環境や都市環境を「音の視点」で見ようとしたことはなかったなと、あらためて気づかされましたね。
青木 ALife研究者と一緒に研究開発をしていて面白いなと思うのが、「人が意識的に認知できる周辺や裏側を重要視している」ことです。ALiferたちは、「そうしたものを含めた環境全体が意識に立ち上がってくる情報があるはずだから」と言うのです。無意識下の情報をばーっと挙げてくるところがすごく面白い視点だなと思っています。
升森 システム的に言うと、人間中心的な評価軸はあまり入れないようにしています。
あくまでALifeのエージェントたちが自分の生きやすいようにコミュニケーションした結果としてサウンドスケープが生まれるので。オーディオインターフェイスなどのハードウェアの制約はあるものの、その範囲内なら自由にエージェントたちは音を好きな帯域を出せるようになっています。人間にとってより良い最適化をするのではないので、AI的アプローチとは対照的かなと。