アップルが開発中の次世代Siriは、グーグルの大規模言語モデル「Gemini」を活用することになるようだ。米メディアBloombergが11月5日に報じている。
同紙によると、アップルはグーグルが開発した1兆2千億パラメーターの大規模言語モデルを採用し、年間約10億ドル(約1570億円)を支払う契約を結んだという。
パラメーターとは、AIモデルが質問を理解して応答する能力を測る指標だ。一般的にパラメーター数が多いほど高性能になるが、訓練方法やアーキテクチャも性能に影響する。Bloombergによれば、グーグルのモデルはアップルの現行モデルのパラメーター数を「大幅に上回る」という。
ちなみに現在のクラウド版Apple Intelligenceは1500億パラメーターを使用しているが、アップルが開発中の他のモデルの具体的な数値は明らかになっていない。
アップルはGeminiを要約機能や複数ステップにわたるタスクの計画・実行に使用するが、Siriの一部機能にはアップルの独自モデルも使われる。グーグルがアップル向けに提供するAIは、アップルのプライベートクラウドサーバー上で動作するため、グーグルがアップルのデータにアクセスすることはないとのこと。
Geminiは「Mixture-of-Experts」と呼ばれる仕組みを採用しており、1兆を超える全パラメーターのうち、各質問に対して実際に動作するのは一部のみだ。この仕組みにより、処理コストを大きく増やすことなく、大規模な計算能力を実現している。
なお、アップルは次世代Siri用の大規模言語モデルとして自社製AIの使用も検討し、OpenAIやAnthropicの選択肢も検討したが、Anthropicの料金が高すぎると判断してGeminiを選んだという。
アップルはすでにグーグルと検索結果に関する提携関係にあり、グーグルはアップルのデバイスでデフォルトの検索エンジンになるために年間約200億ドル(約3.1兆円)を支払っている。つまり、差し引きすればそれでもアップルは約190億ドル(約2.9兆円)儲けている計算になる。
アップルは当面のあいだグーグルのAIに依存する計画だが、自社モデルの開発は継続しており、大規模言語モデルが十分に性能を発揮できるようになれば自社AIに移行する予定だという。
アップルはすでに1兆パラメーターのクラウドベースモデルに取り組んでおり、早ければ2026年に完成する可能性がある。
リースが遅れに遅れている新しいSiriだが、スマートになったApple Intelligence版Siriは2026年春に提供されるiOS 26.4アップデートで導入される見込みだという。

この連載の記事
-
第2386回
iPhone
iPhone 18のA20チップ、製造コスト約80%増に? -
第2385回
iPhone
アップル、A18 Proチップ搭載の低価格MacBookを春に発売か -
第2384回
iPhone
MacBook Airが“命を救った”? 砲弾破片を貫通しても動作継続 -
第2383回
iPhone
iPhone 17 Pro/Pro Max、充電中にスピーカーからノイズ発生か -
第2383回
iPhone
アップルのAI戦略、2026年に反転攻勢か 慎重路線が評価 -
第2382回
iPhone
アップルがテストしていた? iPhone 5cカラーのAirPodsがリーク -
第2381回
iPhone
アップルに猶予 中国製半導体関税、実質影響は2027年以降 -
第2380回
iPhone
アップル「iPhone Air 2」2026年秋発売か 中国リーカーが新情報 -
第2379回
iPhone
ソニー独占が崩れる? iPhone 18のカメラセンサー、サムスンが米国生産か -
第2378回
iPhone
アップル、折り目が見えない折りたたみ式iPhoneをテスト中か -
第2377回
iPhone
iPhone 18、2026年2月に試作生産開始か Proのデザインはすでに確定とのリーク - この連載の一覧へ










