グーグルは6月23日(現地時間)、AIの能力を支える重要なプロセスである「推論(Inference)」について、同社の専門家による解説を公式ブログで公開した。同社は4月に推論処理に特化した第7世代TPU(Tensor Processing Unit)「Ironwood」(アイアンウッド)を発表しており、AIがより有能になるための鍵となるこの技術への理解を促す狙いだ。
AIが知識から答えを導き出すパターンマッチング技術
AIにおける推論とは、AIモデルが学習した知識を用いて、新たな情報に対して結論や予測を導き出すプロセスを指す。グーグルの専門家はこれを「パターンマッチング」に例えて説明する。例えば、アメリカの聴衆が「ピーナッツバターと__」と問われれば、多くの人が「ジェリー(ジャム)」と答えるように、AIも学習したパターンから最も可能性の高い答えを予測する。この能力は、単純なテキストの穴埋めにとどまらず、言語モデルや画像生成、音声モデルといった深層学習AIの根幹をなしている。
推論は生成AIだけのものではない。YouTubeでユーザーに適した動画を推薦するモデルや広告配信を最適化するモデルなど、以前から存在する「古典的」なAIでも長年活用されてきた。AIがより高性能になるにつれて、推論の能力も向上している。かつてAIが生成する画像では、物理法則を無視した不自然な手の描写が見られたが、現在のモデルは物理や質感などをより正確に表現できるようになった。これは、言語翻訳が統計ベースのぎこちないものから、自然で実用的なレベルに進化したのと同様の変化であり、推論プロセスの質的向上を物語っている。
グーグルのサービスでは、検索結果の上部にAIによる要約を表示する「AI Overview」が良い例だ。ユーザーの検索クエリーを推論によって理解し、膨大な情報の中から最適な答えを生成して要約する。さらに、AIがユーザーの代わりにタスクを実行する「エージェント」技術においても、推論は中心的な役割を担う。
今後のAIの普及には、推論のコスト削減と効率化が不可欠となる。グーグルは、モデルのセマンティクス(意味)を変えずに計算パラダイムを最適化し、より少ない計算資源で高品質な結果を得るための研究を進めている。そのためのハードウェアとして、推論処理に最適化された設計を持つ最新TPU「Ironwood」を開発。ソフトウェア面でもコンパイラやフレームワークの改良を続けており、より低コストで誰もがAIの恩恵を受けられる未来を目指している。
