アップルが開発中の次世代Siriは、グーグルの大規模言語モデル「Gemini」を活用することになるようだ。米メディアBloombergが11月5日に報じている。
同紙によると、アップルはグーグルが開発した1兆2千億パラメーターの大規模言語モデルを採用し、年間約10億ドル(約1570億円)を支払う契約を結んだという。
パラメーターとは、AIモデルが質問を理解して応答する能力を測る指標だ。一般的にパラメーター数が多いほど高性能になるが、訓練方法やアーキテクチャも性能に影響する。Bloombergによれば、グーグルのモデルはアップルの現行モデルのパラメーター数を「大幅に上回る」という。
ちなみに現在のクラウド版Apple Intelligenceは1500億パラメーターを使用しているが、アップルが開発中の他のモデルの具体的な数値は明らかになっていない。
アップルはGeminiを要約機能や複数ステップにわたるタスクの計画・実行に使用するが、Siriの一部機能にはアップルの独自モデルも使われる。グーグルがアップル向けに提供するAIは、アップルのプライベートクラウドサーバー上で動作するため、グーグルがアップルのデータにアクセスすることはないとのこと。
Geminiは「Mixture-of-Experts」と呼ばれる仕組みを採用しており、1兆を超える全パラメーターのうち、各質問に対して実際に動作するのは一部のみだ。この仕組みにより、処理コストを大きく増やすことなく、大規模な計算能力を実現している。
なお、アップルは次世代Siri用の大規模言語モデルとして自社製AIの使用も検討し、OpenAIやAnthropicの選択肢も検討したが、Anthropicの料金が高すぎると判断してGeminiを選んだという。
アップルはすでにグーグルと検索結果に関する提携関係にあり、グーグルはアップルのデバイスでデフォルトの検索エンジンになるために年間約200億ドル(約3.1兆円)を支払っている。つまり、差し引きすればそれでもアップルは約190億ドル(約2.9兆円)儲けている計算になる。
アップルは当面のあいだグーグルのAIに依存する計画だが、自社モデルの開発は継続しており、大規模言語モデルが十分に性能を発揮できるようになれば自社AIに移行する予定だという。
アップルはすでに1兆パラメーターのクラウドベースモデルに取り組んでおり、早ければ2026年に完成する可能性がある。
リースが遅れに遅れている新しいSiriだが、スマートになったApple Intelligence版Siriは2026年春に提供されるiOS 26.4アップデートで導入される見込みだという。
本記事はアフィリエイトプログラムによる収益を得ている場合があります

この連載の記事
-
第2421回
iPhone
アップル、iPhone史上最大の刷新へ? 2つの新モデルを計画か -
第2420回
iPhone
アップル、SiriをChatGPTっぽく刷新か -
第2419回
iPhone
アップル、MacBook Proついに有機EL化か M6搭載で大刷新の可能性 -
第2418回
iPhone
アップルiPhone 18 Pro、ダイナミックアイランド継続か 画面下Face IDに課題 -
第2417回
iPhone
アップル、iPhoneに「2億画素」望遠カメラ搭載か -
第2416回
iPhone
iPhone Air、実はiPhone Plusの“2倍人気”? -
第2415回
iPhone
エントリーiPad、ついにAI対応か iPad第12世代はA18搭載の可能性 -
第2414回
iPhone
アップル、新型Apple TV 4KとHomePod mini発売延期か -
第2413回
iPhone
アップルのティム・クックCEO、引退説を否定 「アップルのない人生は想像できない」 -
第2412回
iPhone
アップル「iPhone 19e」120Hz表示か、低価格モデルでもProMotion対応の可能性 -
第2411回
iPhone
アップル「iPhone 16e」MagSafe対応可能に iPhone 17eの背面パネル装着で - この連載の一覧へ










