アップルのARグラス「Vision Pro」でスマホの次がハッキリ見えた! 「WWDC23」特集 第20回
iPhone 8/X非対応、iOS 17に見るアップル製品のこれから(本田雅一)
2023年06月09日 07時30分更新
iPhone 8/X世代に共通する事情
さて、このこととiOS 17のサポートからiPhone 8/8 PlusおよびiPhone Xが落ちたことは無関係ではない。
この2つのモデルに採用されているSoCは、Apple A11 Bionicというチップだ。この世代のチップには、初めて推論処理を効率的に実施するニューラルネットワーク処理専用コアが組み込まれていた。
ただし、この時点では技術的な制約もあってか、さほど規模は大きくない。演算能力は毎秒6000億回だ。主な目的は顔認証のFace IDを実現するためで、他にもアニ文字を自動で提案する機能などにも使われているが、汎用的なプロセッサとしては弱い。
あくまでもiOSの機能をより使いやすく、手軽に使いこなせるようにするためと、顔認識のための処理回路だ(もちろんアプリからも利用できないわけではないが)。
推論処理用の専用コア、Neural Engineが本格的に組み込まれるようになったのは翌年、iPhone XSなどに採用されたA12 Bionicからである。推論専用処理プロセッサは8コアに強化され、毎秒最大5兆回の演算能力にまで増強された。実に8倍以上の高速化だ。
ここでおおむね結論が見えてきた方も多いと思う。
この大幅なNeural Engine強化ののち、アップルは推論エンジンに手を入れているが、一気にバーンと強化したのはこの世代から。iOSなどで使われているさまざまな推論アルゴリズムを用いた機能は、この世代のNeural Engine性能をベースに作られていると考えていいだろう。
例えばiPad Proに着目しても、12.9インチ版は第2世代はiPadOS 17のサポートから落ちて第3世代以降となった。搭載されているのはA12X Bionicだ。時同じくしてMacもすべてがアップル製SoCになり、Neural Engineを搭載した今年「機械学習を用いた機能の底上げをするために線引きをしたのでは?」というのが筆者の推測だ。
それをいうならば、その後もNeural Engineの強化をしているではないかと思うだろう。確かにその通りだが、推論アルゴリズムを構成するモデルは同じ考え方で規模を拡張することもできる。
つまりNeural Engineの性能によって、同じ機能でも得られる結果の質が異なるということはあり得るということだ。とはいえ、さすがにA11世代では無理ということではないだろうか。
「Hey, Siri」が「Siri」となり、一度呼び出せば文脈を覚えたまま次々に指示を出せるようになるそうだが、そうした連続する会話をすることはA11では不可能だろう。あるいはその後の各世代で、Siriの振る舞いも異なるかもしれないし、留守電録音の文字起こし機能でも認識精度が違うなんてことはありそうだ。
この連載の記事
-
第36回
Apple
【自腹レポ】アップルVision Proの「歴史的価値」はなにかを考える(西田宗千佳) -
第35回
Apple
【自腹レポ】アップル「Vision Pro」をハワイで買った。その美点と価値はどこにあるのか(西田宗千佳) -
第34回
Apple
約50万円のアップル「Vision Pro」予約にいたった経緯を解説する(西田宗千佳) -
第33回
Apple
【ベンチ】史上最速M2 Ultra搭載 約100万円「Mac Studio」ポテンシャルは従来テストでは測りきれない -
第32回
Apple
【レビュー】M2 Ultra搭載Mac Studioは次元が異なるマシンだ! -
第31回
iPhone
アップル、今秋リリースiOS 17/iPadOS 17のパブリックベータを配信開始 -
第30回
Apple
ベンチ結果で判明「15インチMacBook Air」はProに匹敵するパフォーマンス -
第29回
Apple
15インチMacBook Airは「余裕たっぷりの画面サイズ」で実用度No.1 -
第28回
Apple
史上最速のMac「Mac Studio」M2 Ultra搭載モデルに触れた -
第27回
Apple
【レビュー】新MacBook Air 15インチは「とにかく」実機に触って! 大画面、軽量、安価で魅力的 -
第26回
Apple
【レビュー】M2 Ultra搭載「Mac Studio」超高速の内蔵SSDで実用性能が向上(本田雅一) - この連載の一覧へ