このページの本文へ

アップルのARグラス「Vision Pro」でスマホの次がハッキリ見えた! 「WWDC23」特集 第20回

iPhone 8/X非対応、iOS 17に見るアップル製品のこれから(本田雅一)

2023年06月09日 07時30分更新

文● 本田雅一 編集●飯島恵里子/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

2017年09月に発表されたA11 Bionic

iPhone 8/X世代に共通する事情

 さて、このこととiOS 17のサポートからiPhone 8/8 PlusおよびiPhone Xが落ちたことは無関係ではない。

 この2つのモデルに採用されているSoCは、Apple A11 Bionicというチップだ。この世代のチップには、初めて推論処理を効率的に実施するニューラルネットワーク処理専用コアが組み込まれていた。

 ただし、この時点では技術的な制約もあってか、さほど規模は大きくない。演算能力は毎秒6000億回だ。主な目的は顔認証のFace IDを実現するためで、他にもアニ文字を自動で提案する機能などにも使われているが、汎用的なプロセッサとしては弱い。

 あくまでもiOSの機能をより使いやすく、手軽に使いこなせるようにするためと、顔認識のための処理回路だ(もちろんアプリからも利用できないわけではないが)。

 推論処理用の専用コア、Neural Engineが本格的に組み込まれるようになったのは翌年、iPhone XSなどに採用されたA12 Bionicからである。推論専用処理プロセッサは8コアに強化され、毎秒最大5兆回の演算能力にまで増強された。実に8倍以上の高速化だ。

 ここでおおむね結論が見えてきた方も多いと思う。

 この大幅なNeural Engine強化ののち、アップルは推論エンジンに手を入れているが、一気にバーンと強化したのはこの世代から。iOSなどで使われているさまざまな推論アルゴリズムを用いた機能は、この世代のNeural Engine性能をベースに作られていると考えていいだろう。

 例えばiPad Proに着目しても、12.9インチ版は第2世代はiPadOS 17のサポートから落ちて第3世代以降となった。搭載されているのはA12X Bionicだ。時同じくしてMacもすべてがアップル製SoCになり、Neural Engineを搭載した今年「機械学習を用いた機能の底上げをするために線引きをしたのでは?」というのが筆者の推測だ。

 それをいうならば、その後もNeural Engineの強化をしているではないかと思うだろう。確かにその通りだが、推論アルゴリズムを構成するモデルは同じ考え方で規模を拡張することもできる。

 つまりNeural Engineの性能によって、同じ機能でも得られる結果の質が異なるということはあり得るということだ。とはいえ、さすがにA11世代では無理ということではないだろうか。

 「Hey, Siri」が「Siri」となり、一度呼び出せば文脈を覚えたまま次々に指示を出せるようになるそうだが、そうした連続する会話をすることはA11では不可能だろう。あるいはその後の各世代で、Siriの振る舞いも異なるかもしれないし、留守電録音の文字起こし機能でも認識精度が違うなんてことはありそうだ。

カテゴリートップへ

この連載の記事

ASCII.jp RSS2.0 配信中