このページの本文へ

Pixel 7/Pixel 7 Pro発表! Pixel WatchはFeliCa入り! 第12回

全社体制でPixel 7とPixel Watchに注力するグーグルの意気込み(西田宗千佳)

2022年10月11日 12時00分更新

文● 西田 宗千佳 編集●飯島恵里子/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

「Google Tensor」から見える「オールGoogle」体制

 そして、Pixel 7・Pixel Watchを多数売ることが重要である理由は、それぞれの販売収益が重要、という点以外にもある。それは、現在のPixelが「グーグルの持つリソースをすべて生かすプロジェクト」になってきているからだ。

 冒頭で書いたように、昨年のPixel 6以降、同社は「第2世代Pixel」に移行した。その中核となっているのは、グーグル自社開発のプロセッサーである「Google Tensor」を採用したことだ。

 Google Tensorは評価が難しいプロセッサーである。第1世代である「G1」は、ベンチマークで比較する場合、他のハイエンドスマホで使われるSoCに比べて性能は低い。だが、それでPixel自体の性能を評価することはできない。

 Google Tensorに搭載されている機械学習系コアの優秀さが、「カメラ」「画像認識」「音声認識」などの快適さにつながっていたからだ。ほとんどがクラウド処理でなくデバイス内で処理できていた、という点も大きい。特にプレス関係者からは、オンデバイスによる音声認識機能の評判が高かったが、そこでもGoogle Tensorの機能が使われていたし、カメラの画質も同様だ。結果として、コストを抑えたがSoCとしてはGoogle Tensorを使った「Pixel 6a」のコストパフォーマンスの良さが注目される結果となった。

 Pixel 7シリーズは次の世代となる「G2」を使っている。G2の性能は現時点では不明だが、機械学習系の処理については高性能化しており、消費電力も20%削減されていることがわかっている。性能評価は後日に譲るとしても、こうした要素が音声認識やカメラの性能をより向上させるカギになっているのは間違いない。

Pixel 7シリーズのSoC「G2」も機械学習系処理を担当する「TPU」の性能で差別化を狙う

 Pixel 7ではピンボケや被写体の動きが原因で明瞭でない写真を、機械学習処理で高画質化できる。しかも、Pixel 7で撮影したものだけでなく、過去に他のカメラで撮った写真でもいい。これは間違いなく大きな魅力の1つだ。

ピンぼけ写真をよりきれいに。これを「スマホ内」で処理するのが興味深い

 こうした機能を作るには、ハード・ソフト・サービスでの連携が必須であり、自社内にあるリソースをうまく生かすことが重要になる。すなわち、ハード開発・OS・クラウドのそれぞれを持っている企業が有利なルールなのである。

 そのパターンで成功したのがアップルであり、スマホを持たないAmazonも、音声アシスタントや強力なクラウドを背景に、ハードウエアビジネスを10年間で成長させた。

 グーグルもその路線に行こうと考えるのは必然であり、そのためには、彼らの強みである「クラウドとAI」を活かせるAndroidスマホを開発し、販売する戦略が必要であった、ということなのだ。

 このことは、昨年発売のPixel 6シリーズから自明のことであり、今年もさらに継続してきた。Pixel 7シリーズの差別化点としてアピールされた部分、ほぼすべてに「G2」が関わっている。

 こうした仕組みの場合、新機能のどれだけがG2の効果によるもので、旧機種やクラウドへの提供がどうなるかがわかりにくい、という問題はある。その点、グーグルはあえてやっている部分もあると感じる。

カテゴリートップへ

この連載の記事

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン