このページの本文へ

[速報] Google、ARを検索に組み込み、視覚的な情報取得を可能に #io19

文●渡辺隆広/SEMリサーチ

2019年05月08日 05時43分更新

記事提供:SEMリサーチ

  • この記事をはてなブックマークに追加
本文印刷

[速報] Google、ARを検索に組み込み、視覚的な情報取得を可能に #io19

米Googleは2019年5月7日(米国時間)、カリフォルニア州マウンテンビューで開催中の開発者向け年次イベント Google I/O において、AR(Augmented Reality、拡張現実)を検索に組み込み、視覚的な回答が得られる機能を追加すると発表した。

検索結果から3Dで情報を確認、ARで現実世界に表示することも

私たちは日々検索している事柄の中には、画像や動画といった視覚的な情報が検索結果に表示された方が適切なことがある。新たに発表された検索機能は検索、カメラ、AR、コンピュータビジョンを活用し、3Dの回答を得ることを可能にする。

会場のデモでは「筋肉の屈曲」(muscle flexion)と検索したときに、スマホ検索結果の一部のリンクに「View in 3D」というボタンが表示される。これをタップすると、3Dモデルが画面に表示され、自由な角度から対象物を動かして確認できる。さらに AR 機能を有効にすると(View in your spacesをタップ)、現実世界の机の上に筋肉のモデルを表示することができる。同様にサメを検索結果から直接3Dモデルを表示して立体的に確認すると同時に、ARを活用して会場ステージに表示するデモも披露した。別のデモでは、新しい靴を購入する利用シーンをあげた上で、靴を現実世界の洋服にならべて表示することで、ファッションの色合わせを容易に行うことができると説明した。


Googleレンズの検索機能も強化、レストランの人気メニューが一目で

Googleレンズを使った新機能の紹介も行われた。たとえばレストランで何を注文するか迷うときに、スマホのカメラレンズをメニューに向けると、そのレストランの人気料理をハイライト表示することが可能になった。気になる料理があれば、該当のメニューをタップすると該当する料理の写真とレビューが表示される。従来、同じことをするためには他のアプリを開いて人気レビューや評判を確認し、またメニューに目をやるといった具合に手間が掛かったわけだが、Googleレンズの新機能はこの手間を大幅に激減し、料理選びを楽にしてくれる。


また、レストランでもらったレシートを Googleレンズでかざすと、その支払情報を認識して割り勘計算がそのまま画面上で行えるデモも行われた。


#
ただいま Google I/O 2019 に参加しており、現地の空き時間に速報として本記事を執筆しています。誤字・脱字等があるかもしれませんが、後ほど訂正させていただきます。

カテゴリートップへ

WebProfessional 新着記事

ASCII.jp会員サービス 週刊Web Professional登録

Webディレクター江口明日香が行く