このページの本文へ

アップルのAI、「Apple Intelligence」がiPhoneやMacを変える! 「WWDC24」特集 第19回

アップルWWDCで明かされたのは「パーソナルインテリジェンス」への挑戦だった(西田宗千佳)

2024年06月13日 07時00分更新

文● 西田 宗千佳 編集●飯島 恵里子/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

Apple IntelligenceベースになるSiriでは、アプリなどの履歴から「その人に必要な文脈」を解析して利用する

アプリをまたいで「履歴」「文脈」「コンテンツ理解」

 では、Apple Intelligenceの目指すものはどのように実現され、どこが大きな要素となるのだろうか?それは「アプリをまたいだ履歴と文脈の理解」であり、「アプリ内のデータに関する深い理解」である。

 Apple Intelligence導入後の新しいSiriでは、次のようなことができる。

「前話してた試合、どの球場でやってるんだっけ?」
「そこまでって、どのくらいかかる?」
「場所を覚えておいて」

 人間との会話だったらあたりまえの内容だ。だが機械への指示だとすると、

・どのスポーツの話をしていたのか
・話している球場とはどこを指すのか
・場所を覚えるとは、どのアプリへの記録を指すのか

 といった情報が本来は必要だし、それぞれどのアプリで実行するべきかも、指定しなければならない。

 だがApple Intelligenceの場合、端末内でのコミュニケーション履歴やアプリの機能から適切な情報を選び、会話が成立している間は「読まねばならない文脈」を抑えて働く。

 また、「写真」アプリもおもしろい。アプリ内に蓄積された写真・動画について、なにが写っているのかを全て検索用のインデックスとして生成し、検索対象とするのだ。

 だから例えば、「東京に行った時食べたもの」「釣りをしている子ども」のようなふんわりフレーズで検索可能にする。

「写真」アプリでは、蓄積された写真に「なにが写っているか」をAIが理解してインデックス化し、検索対象にする

 また動画の場合、サムネイルだけでなく「動画内に含まれるもの」まで検索対象として解析されるため、大量の動画から決定的シーンが含まれるものを見つけられるわけだ。

動画内の特定の瞬間まで検索対象に

 さらには、写真・動画をまとめる「メモリー」機能の場合、「登山旅行の写真を。〆は2人のセルフィーで」と指定することで、ちゃんとセルフィーで終わるショート動画にまとめ直してくれたりもする。

Apple Intelligenceを使った「メモリー」機能。写真・動画が詳しい自然文で検索してまとめられる

 こうした要素がどのくらいデバイスの使い勝手を変えていくのかは、正直なところ未知数だ。非常におもしろい要素ではあるが、そんなにうまくは働かない可能性もある。

 だが少なくとも、「アラームを7時……んー、6時にセットして」という感じで言い淀んだ場合でも、ちゃんと人間と同じように「6時にセット」してくれるようだ。「6時と7時の2つセットされる」のでも、「7時にセットされる」のでもない。

 この時点で、今までとは違う世界に入りつつあると感じないだろうか。

カテゴリートップへ

この連載の記事

ASCII.jp RSS2.0 配信中