このページの本文へ

前へ 1 2 次へ

iOSやmacOSの進化が見えた! 「WWDC21」特集 第10回

【WWDC21】アップル新方針「オンデバイスAI強化」で攻める

2021年06月10日 09時00分更新

文● 西田 宗千佳 編集●飯島 恵里子/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

Siriは「オンデバイス処理」が基本になり、ネットワークがない時にも使えるようになった

 今回のWWDCでの発表を見ると、「オンデバイスAI」の価値が高まっているのに気づく。AI(機械学習)系の処理といえば、これまではクラウドと連携して圧倒的なデータ量を活かすもの……という印象もあったが、もうそうではない。

 この変化はアップルだけの傾向ではないのだが、アップルは特に一気呵成に攻めてきた。その背景こそが、今年のアップルを考える上で重要なことなのではないか、と考えている。

Siriから写真まで、オンデバイスAIが活躍

 秋に公開される新OSから「オンデバイスAIで強化される」機能はたくさんある。

 まずわかりやすいのは「Siri」。これまでは特定のタイミングでのみデバイス内で処理されていたが、これからはデフォルトでデバイス内の処理に変わる。結果として、メッセージを送信する場合や、あまり使われない命令への反応に必要な情報を得る場合を除くと、音声認識も合成も、そして「判断」もネットを介さずに行われるようになった。

 そうなると、飛行機の中などで通信ができない時にもSiriが使えるようになるし、ネットを介さない分反応が速くなって使い勝手も上がる。

 iOSやiPadOSのSiriもそうだが、HomePodやApple TVなどのホームネットワーク機器でもSiriはオンデバイスになる。これは、機器連携をする上で確実にプラスだ。ネットワークが仮に落ちても、Siriからの操作ができることになるからだ。なお、Siriは今後ホームネットワークで、サードパーティでの活用が可能になっていくが、その際もサードパーティ側のサーバーにはアクセスせず、Siriネットワークのみを使う。こうした点は、速度だけでなく安定性にも寄与する。

 オンデバイス、という意味では「写真」もそうだ。意外と知られていないが、アップルは以前より、画像系の処理を「できる限りオンデバイス」で行なうことを基本としてきた。Googleフォトがクラウドに写真を蓄積し、クラウドのパワーを使うことを前提としたこととは対照的である。

 iOS 15では、特に写真の分析・分類についていろいろな機能強化が図られている。その最たるものが、画像内の文字を「テキスト情報」に変える「Live Text」だ。日本語に対応していないのが残念だが、これも文字認識のロジックをダウンロードした上で、オンデバイスで処理される。

画像からテキスト情報を認識する「Live Text」もオンデバイス処理で動作している

 少し意外かもしれないが「写真」という意味では、ホームネットワークの新機能でも使われている。自宅にドアカメラがあり、それがアップルのホームネットワークと連携する場合、画像から「置き配」の荷物が玄関に届いたことを検知する機能がある。

ホームネットワークでカメラ連携を使い、「置き配」の到着を認識して通知する機能も登場

 どうやらこの機能、カメラ側のAIでもクラウドのAIでもなく、HomePodやApple TVといった、HomeKit対応ホームネットワークのハブになるデバイスの「オンデバイスAI」で荷物の形を認識して、通知を出しているようだ。スピーカーのオンデバイスAIでホームネットワークが進化する、というのはおもしろい。

前へ 1 2 次へ

カテゴリートップへ

この連載の記事

ASCII.jp RSS2.0 配信中