このページの本文へ

前へ 1 2 3 4 次へ

ロードマップでわかる!当世プロセッサー事情 第583回

激戦のAI推論市場で生き残りを賭けるプロセッサー AIプロセッサーの昨今

2020年10月05日 12時00分更新

文● 大原雄介(http://www.yusuke-ohara.com/) 編集●北村/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

Cascade Lakeの106倍の性能という
QualcommのCloud AI 100

 SiMa.aiとは逆に、突如としてAIアクセラレーターチップそのものを発表したのがQualcommである。

 SiMa.aiやGroqのようなスタートアップ企業の場合、まずファンドなどから資金を集める必要があり、そのためにはアーキテクチャーや市場、将来性などを早いタイミングでアピールする必要があるため、チップ完成の前に発表するわけだが、Qualcommのような大企業の場合は自前で開発資金を十分賄えるので別にチップの完成まで発表の必要はないわけだ。

 さてそのQualcommが9月16日に発表したのがCloud AI 100である。開発の動機は単純で、より高性能のAIプロセッサーが必要だからである。

 Qualcommの場合、Snapdragonシリーズに搭載されているHexagon DSPを利用してAIの処理が可能で、15TOPS程度までの処理性能はすでに確保している。

Snapdragonに搭載されるHexagon DSPは、最近ではTensorアクセラレーターなども搭載しており、十分に強力なAIアクセラレーターとして利用されている

 QualcommはMobile Edgeの10社のうちの1社であり、このあたりは抜け目がない。ただ、いわゆるEmbedded Edgeではもっと高い処理性能が必要であり、Cloud向けはさらに高性能なものが要求される。ここに向けたアクセラレーターがCloud AI 100となる。

Cloud AI 100は、Dual M.2(M.2コネクターが2つ並んだフォームファクター)ないしPCIe x8のカードという形(Dual M.2は消費電力に併せて2種類)が提供される

 もっともQualcommは、その詳細を発表するつもりはまるでないようで、内部構造として示されたのは下の画像だけである。

Cloud AI 100の概要。HBMやGDDR/DDRではなく、LPDDRを利用するというあたりがQualcommならではだろう。もっとも昨今LPDDR4は4.3Gbpsに達しており、GDDR/HBMほどではないがDDR4よりは帯域が広いので、これはこれで合理的かもしれない。オンダイSRAMも最大144MBと強烈。コアあたり9MBということだろう

 核となるのはAIC(AI Core)であるが、これが最大で16コアで400TOPSとあるので、1コアあたり25TOPSほどの計算になる。

 ラインナップは15W、25W、75Wの3つで、15Wのものは4コア、25Wのものは6コアで、どちらも動作周波数を若干落とした構成。フルスピードのものが16コア構成で75W動作ということなのだろう。

 さてこのCloud AI 100、性能として示されたのが下の画像だ。20WというのはDual M.2カードの構成に近いだろうが、Cascade Lakeを1とした時に106倍の性能とされる。

競合と比較して4~10倍の効率、というのはすでにCascade Lakeは競合相手されていないということでもある

 もっと強烈なのが下の画像で、GroqのTSPすら比較にならないほど高速、というのがQualcommの主張である。

少しわかりにくいが、横軸は消費電力を逆順にして示しており、遠いほど省電力で動作することになる

 さてQualcommのおもしろいのはここからだ。PCIeカードもしくはDual M.2カードというからには、サーバーなどに装着する形での運用を考えそうなものだが、なぜかその開発キットはEmbedded Edge向けの構成なことである。

Cloud AI 100は、屋外での利用を考慮した筐体に収められる形で出荷されるという

 Cloud AI 100はあくまでもアクセラレーターなので、Snapdragon 865およびSnapdragon X55と組み合わせることで、アプリケーションプロセッサー兼ISPと5Gの接続性を確保できるとする。

MLSoCの構成を3チップで実現した格好になっている

 Qualcommによる、この開発キットの紹介ビデオ(https://www.youtube.com/watch?v=AFb1KoGUOlE)によれば、24台のフルHDカメラを接続し、この動画を25fpsでキャプチャーしながらそこにAI処理を施せるとしている。

24台のフルHDカメラで25fpsの動画をキャプチャーしながらAI処理を施せるという。しかもそれぞれのカメラに対して異なるネットワークを適用可能だとしている。もちろんこれはシンプルな車両認識アルゴリズムなので、もっと複雑なアルゴリズムを実行させるともう少し効率は落ちるかもしれない

 これは従来のEmbedded Edge向けAIアクセラレーターでは手が出ない要求性能であり、これを見事に処理できるというわけだ。

 この開発キットは今年10月から出荷予定で、Cloud AI 100チップそのものの量産開始は2021年前半とされる。Qualcommのことだからきっと量産を開始しても内部の詳細は公開しない気がするが、このAI推論市場もなかなか厳しい戦いになっていることがおわかりいただけたはずだ。

前へ 1 2 3 4 次へ

カテゴリートップへ

この連載の記事

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン