このページの本文へ

前へ 1 2 次へ

Apple Geeks 第182回

DCI-P3準拠へと歩むiPhone/iPad - WWDC基調講演で秘められた新技術は、ここにある(2)

2016年06月27日 10時00分更新

文● 海上忍(@u_shinobu)、編集●ハイサイ比嘉

  • この記事をはてなブックマークに追加
  • 本文印刷

 本連載「Apple Geeks」は、Apple製ハードウェア/ソフトウェア、またこれらの中核をなすOS X/iOSに関する解説を、余すことなくお贈りする連載です(連載目次はこちら)。

 UNIX使い向けを始め、Apple関連テクノロジー情報を知りつくしたいユーザーに役立つ情報を提供します。

バックグラウンド動作可能なアプリの登場で「watchOS」が変わる?

 鳴り物入りで登場した「Apple Watch」だが、現状で判断するかぎり成功しているとは言い難い。その原因は、マーケティングの巧拙など周辺事情を抜きにすれば、Apple Watchという製品のハードとソフト両面に行き着くわけだが、個人的にはソフトが足かせとなっているように思う。落下させると高確率で画面が割れるなどハードにも課題は多いが、洗練されたソフトウェアの不在こそがパッとしない理由なのではないか。

 アプリ開発という視点から「watchOS 3」を見た場合、最大の変化は「バックグラウンド動作の開放」だろう。watchOS 2の時点では、サードパーティー製アプリは未操作状態が75秒を過ぎると非活動化されていたが、原則としてその制約がなくなる。たとえば、センサーの機能にアクセスする運動支援系アプリを一定間隔で情報更新したり、SNS系アプリではペアリングしているiPhone側から定期的にデータを受信したりすることが可能になる。バッテリー消費はまた別の問題として、アプリの可能性が広がることは確実だろう。

バックグラウンド動作が可能になると、サードパーティー製アプリの活用範囲は大きく広がる

 個人的に期待しているのは、音楽アプリでの活用だ。watchOS 3では、iOSとmacOSで実績豊富なマルチメディアフレームワーク「AVFoundation」にアクセスできるようになったため、バックグラウンドで音楽を再生し続けるアプリを開発できる。イヤホンジャックの廃止が噂されている次期iPhoneだが、音楽はBluetooth/A2DPで聴くことが前提のApple Watchの場合、同様のリスニングスタイルを先取りしていると言えないこともない。これでストリーミング再生も可能となれば、音楽の聴き方は大きく変わるだろう。

バックグラウンド動作が可能になると、あえてフォアグラウンドで行なう必要のない処理を事前に完了させておくことができる。画像は「Keeping Your Watch App Up to Date」( https://developer.apple.com/videos/play/wwdc2016/218/ )で配布中のPDFより抜粋)

「iOS 10」 - リアルタイムに音声認識可能な新フレームワークが追加

 iOS 10で追加されるフレームワークの中でも注目したい存在が「Speech」だ。平たくいえば音声認識APIであり、録音済みのサウンドファイルも、内蔵マイクを通じてリアルタイムに入力される音声データも、その場でテキストに変換できる。

 同じくiOS 10で追加されたSiriKitとの類似性を覚えるかもしれないが、SiriKitは音声認識機能というよりはアプリ連係(インテント)が主眼であり、Siriのインターフェースを利用することが前提としてある。狙いはあくまで、アシスタントとしてのSiriの機能拡充だ。

 一方のSpeechフレームワークは、Siriと同じクラウド上に存在する音声認識エンジンを使用するなど基盤部分は共通。サポートする言語数も50以上とSiriに準じており、もちろん日本語もOK。SiriのUIを介すことなく、Siriと同レベルの精度を持つ音声認識エンジンにサードパーティー製アプリからアクセスできるというわけだ。ディクテーション(ソフトウェアキーボードのマイクボタンをタップすると始まる音声入力機能)をアプリから直接利用するためのフレームワーク、と理解すればいいだろう。

 現状のディクテーション機能は、積極的に利用されているとは言い難いが、このSpeechフレームワークが積極的に使われ始めるとどうなるか。家電を音声で制御するリモコンアプリ、対話形式で定型文を埋めてメッセージを作成するメールアプリなど、用途はいろいろありそう。サードパーティー製エンジンを使わずに済むうえ無料であり、音声認識を使うアプリが急増する可能性も指摘しておこう。

ディクテーション機能は以前から存在したが、ソフトウェアキーボードからしか呼び出せなかった。画像は「Speech Recognition API」( https://developer.apple.com/videos/play/wwdc2016/509/ )で配布中のPDFより

Siriと同じエンジンを使用することで、スピーディーかつ正確な音声認識を可能にする。画像は「Speech Recognition API」( https://developer.apple.com/videos/play/wwdc2016/509/ )で配布中のPDFより

 留守電の音声メッセージを自動でテキスト化するiOS 10の新機能「iCloudボイスメール」も、Speechフレームワークの成果物と考えればわかりやすい。基調講演の場では日本語対応時期が明言されなかったものの、現時点のSiriまたはディクテーションによる日本語の認識精度を思えば、すでに実用レベルに近いはず。期待していいのではないだろうか。

前へ 1 2 次へ

カテゴリートップへ

この連載の記事

ASCII.jp RSS2.0 配信中