このページの本文へ

遠藤諭のプログラミング+日記第39回

いま最高のガジェットは“人工知能界のEcho”みたいな“ディープレンズだ

2018年02月19日 09時00分更新

文● 遠藤諭(角川アスキー総合研究所)

  • この記事をはてなブックマークに追加
  • 本文印刷

IoTやりたい人は人工知能から考えよう

そもそも、エコーはAlexaという人工知能の実体化だが、オリジナルな人工知能の出口としての目も耳も脳もあるエコーみたいな物体がアマゾンのディープレンズだ。

 毎月、デジタルガジェットにお金をつぎこんでいる私だが、いまいちばん欲しいのがアマゾンの「ディープレンズ」(DeepLens)だ。写真を見ても分かるとおりリビングなんかに置いて使う、同じアマゾンの「エコー」のようなアプライアンスである。

 そう我が家でも「アレクサ(荒木さん)電気消して」なんてやっているエコーみたいな物体である。ついでながら、この「アレクサ」を「荒木さん」と呼び方はFB上で教えてもらって吹聴していたら、「うちでは反応しない」という人がいる。一方、我が家のエコーくん、ここ数週間で聞き取り力が落ちていると思う。丸山不二夫先生によると「テレビに反応しないようにチューニングしている?」という説があるらしいのだが、ABテストや日々のチューニングなど行われているのだろう。

 さてその丸山先生と深層学習のハンズオンセミナーの準備をしていて、そのミーティングでアマゾンの松尾さんに教えてもらった(不勉強で知らなかった)。それが、“人工知能のエコー”みたいな「ディープレンズ」(DeepLens)なのである。

 スクエアだけど優しげなデザインといい、テーブルの上に置くのにちょうどよさげな大きさといい、ロボットになりきれずスピーカーとして家庭に入りこんだエコーの意思を継いでいるように見える。

 実は、米国では日本人の知らないエコーがたくさん売られている。私が所有しているのは、「Echo Tap」という保温ボトルのように持ち運べるエコーである(1年半前に購入)。デモでは、ピクニックや裏庭のバーベキューなどで使うシーンが紹介されていた。それで「裏庭の証明を点けて!」などとやっている(IoT推し!)。

 その後も次々に「エコー」の変種は発売されていて、画面付きの「Echo Show」、監視カメラの「Cloud Cam」、ちょっと楽しいのが目覚まし時計だといえる「Echo Spot」。きわめつけは、出かける前に「姿見」のように自分を映してアドバイスをもらう「Echo Look」である。

米国ではさまざまなEchoが発売されている。左上から時計まわりに「Echo Show」、「Cloud Cam」、「Echo Spot」、「Echo Lookc」。同社の人工知能Alexaのサードパーティへの展開も進んでいるのはご存じのとおりだ。トイレや腕時計(これは案外いいかもしれない)に向かって「アレクサ」などと言う日も近いかもしれない。

 それに対して、「ディープレンズ」は、正確には「AWS DeepLens」なので、エコーの親戚と言えなくもないが兄弟ではない。あくまで同社が提供する機械学習開発用の装置である。カメラやマイクだけでなく、なんとこの端末の中で「ディープラーニングスキルを向上させるよう設計された事前トレーニング済みのモデルを使ったディープラーニングを利用できます」などとも書いてある(サーバーレスでも動く)。

 同じようなものは、Raspberry Piとカメラを組み合わせてもできるらしいのだが、あえてカジュアルな広報写真や本体デザインが、どうしてもガジェット心を刺激しまくるというものだ。エコーと同じように、ちゃっかり生活空間の中に居座りはじめている図々しさがいいでしょう。このあたり、ガジェット好きしか通じない理屈のようなものがあるのだが。

準備をしなくてもディープラーニングの学習ができるようになった

エコーLoockを使っているところ。米国ではすでに“目”を手に入れたEchoが発売されている。

 アマゾンは、昨年11月の「re:Invent 2017」という催しで「Amazon SageMaker」という機械学習向けのプラットフォームを発表した。これは、いままでGPU搭載のマシンを用意したり、クラウドでもソフトのインストールや環境構築など大変だった部分を省略可能にして、さらにはAPI公開までできますというものだ。これによって、少なくとも学習や初期導入のハードルが下がることは間違いない(入門書が環境構築が大変と書いているのを見ても分かるとおり)。あらかじめ用意された学習アルゴリズムでは、ゲームのキャラクター設定みたいにメニューからパラメーターを設定するだけ。

 機械学習の簡便化はこの世界の大きな流れで、グーグルの「AutoML」などはよい例だといえる。AutoMLも、いまのところ画像認識だけだが、今後、対象分野を広げていくとされている。

 とはいえ、SageMakerでも、結局、企業等が自社の目的にあった学習モデルを作っていくには、さすがに意味も分からずパラメーターを操作するだけというわけにはいかない。ということで、2月24日に「Amazon SageMaker」を使ったディープラーニングのハンズオンを開催させてもらうことにした。詳しくは、機械学習アプリを「賢く」作る:Amazon SageMakerクラウド・ハンズオン募集ページを見ていただきたいのだが、環境構築の手間をなくすことで、実際に学ぶべき内容に専念できる。受講後に自宅のPCでも継続できる点を特徴としている。

 Amazon SageMakerに関する解説・デモンストレーションも、アマゾンジャパンさんにしていただけることになった。ディープラーニングの今後の1つのスタイルを肌で感じることのできる内容になる。

 ということで、私自身もこれに参加してみることにした。DeepLensの発売は、4月のはずだが、いま米アマゾンのサイトを見ると6月にお届けしますなんて書いてある。エコーに話かけるのに飽きてきたので、ジェスチャーと組み合わせて天井を指さしてシーリングランプを消したり、テレビを指さしてつけたりできないか? 「あのさぁ」とかいうと目をさまして使えるエアリモコンなのだが、このカメラではむずかしいだろうか?


【お知らせ】

 2/14(土)開催の「機械学習アプリを「賢く」作る:Amazon SageMakerクラウド・ハンズオン」では、「Androidで動く(Androidがない方は、WebブラウザからアクセスできるWebアプリを作ってもらいます)画像認識アプリを作ってもらおうと思っています」としておりましたが、Androidでのアプリ開発は行わず、SageMakerで作成したサービスをブラウザー上で確認する形に変更いたします。デバイス上でのアプリ開発について、ディープラーニングに対応した開発者向けビデオカメラDeepLensでのデモを予定しています。


遠藤諭(えんどうさとし)

 株式会社角川アスキー総合研究所 取締役主席研究員。月刊アスキー編集長などを経て、2013年より現職。角川アスキー総研では、スマートフォンとネットの時代の人々のライフスタイルに関して、調査・コンサルティングを行っている。著書に『ソーシャルネイティブの時代』、『ジャネラルパーパス・テクノロジー』(野口悠紀雄氏との共著、アスキー新書)、『NHK ITホワイトボックス 世界一やさしいネット力養成講座』(講談社)など。

Twitter:@hortense667
Mastodon:https://mstdn.jp/@hortense667


カテゴリートップへ

この連載の記事
ピックアップ