AI推論に不向きというx86の弱点を補うため
AI向けコプロセッサーを内蔵
CHA+Ncoreの開発動機は下の画像の通り。もともとのCHAは、ZhaoxinがKX-6000シリーズとして提供しているものの後継を目指したSoCだったようで、ターゲットはサーバー市場である。
といってもCentaurの場合は企業向けというよりも、エッジサーバーやクラウド向けで、どちらもそれほどの高い性能は必要ない。ここに向けて8コアのSoC構成だったのがオリジナルのCHAである。ただx86そのものはそもそもAIの推論に向いてないし、もっと言えば学習にも向いていない。
ではどうするか、というのは各社各様である。AMDは「推論も学習もGPUでやった方が効率が良い」というスタンスで、今のところCPU側にそれを取り込む計画はない(と言いつつも、トレンドにあわせて少しづつサポートするデータ型を増やすといった対応はしているが)。
逆に積極的なのがインテルで、AVX512のニューラルネットワーク拡張(AVX512VNNI)やCooper LakeでのBfloat16のサポートなど、本来AI処理に不向きなx86を力業で向く構造にしてしまっている。
これに対してCentaurは、素直にAI向けコプロセッサーを内蔵するという方法を選択した。
もちろんこの方式でもいろいろチャレンジはあるわけで、その結果としてCentaurはコストあたり最大の性能を第一目標、低いレイテンシーを第二目標に定めた。
この連載の記事
-
第801回
PC
光インターコネクトで信号伝送の高速化を狙うインテル Hot Chips 2024で注目を浴びたオモシロCPU -
第800回
PC
プロセッサーから直接イーサネット信号を出せるBroadcomのCPO Hot Chips 2024で注目を浴びたオモシロCPU -
第799回
PC
世界最速に躍り出たスパコンEl Capitanはどうやって性能を改善したのか? 周波数は変えずにあるものを落とす -
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ