今回のAIプロセッサーの昨今は、8月に開催されたHot Chips 32でAlibaba Groupが発表したHanguang 800シリーズを紹介する。
メガプラットフォーマーが自前でプロセッサーを
用意するのは当たり前の時代になった
いきなり余談だが、Alibaba GroupはHotChips 32で3件の発表を行なっている。1 つがこれであるが、他にAlibaba CloudによるX-Dragonというクラウドプラットフォーム用SoC、それとAlibaba Groupのファブレス半導体メーカーであるT-HEADによるXuantie-910というRISC-Vベースのプロセッサーである。
最近GAFA+BATH(Baidu・Alibaba・Tensent・Huawei)などという言葉も流行っているが、Alibabaはもう立派なメガプラットフォーマーであり、こうなってくると機械学習に特化したGoogleの自社開発プロセッサーであるGoogle TPUと同じように「自社専用でプロセッサーを作っても、十分ペイできる」という状況が発生する。
Google TPUは一部市販などもされているが、Hanguang 800シリーズはAlibaba Group内での利用に留まっており、それでも開発費や生産コストで十分元が取れるという、ここまで紹介してきたAIチップ(Google TPUを除く)とはやや様相の異なるビジネスモデルが成立している格好だ。
さらに余談になるが、今回Hanguang 800の説明はAlibaba Groupとして開催されたが、チップの開発そのものはXuantie-910と同じくAlibaba子会社のT-Head(Pingtouge Semiconductor、平?哥半?体有限公司)で行なわれている。
これはHuaweiの半導体が、実際にはHuawei子会社のHiSiliconで設計・製造されているのと同じような図式である。実際T-Headのウェブサイトでは、Hanguang 800が並んで掲載されていたりする。
こうした話は別にBATHだけではない。AWS(Amazon Web Services)も、インテルやAMD、NVIDIAのCPU/GPUを利用したインスタンスを立ち上げる一方で、イスラエルのファブレスCPUメーカーだったAnnapurna Labを2015年に買収。ここで設計・製造したGraviton/Graviton 2プロセッサーをAWSで採用しており、さらに2018年には推論専用チップとしてAWS Inferentiaを2018年に発表、2019年からこれを利用したサービスを始めている。
今年、AWSが開いたre:inventというイベントでは、学習用チップとしてTrainiumという新しいプロセッサーを発表しており、2021年中に利用可能状態になるとする。もうメガプラットフォーマーは、自分でプロセッサーを用意するのが当たり前の時代になりつつあるわけだ。
性能より総保有コストを最優先に設計された
Hanguang 800
ということで話をHanguang 800に戻そう。Hanguang 800そのものは2019年に発表はされていたが、Hot Chips 32で詳細が明らかになった。そのHanguang 800の設計目標が下の画像だ。
TCOといっても、設計・製造コストや廃棄コストはそんなに他の製品と大きくは変わらないので、必然的に性能/消費電力比が一番重要になる。実際、稼働中の消費電力が一番コストに効いてくるからだ。また利用できる処理もある意味割り切った。
AIでは新しい技術がかなり頻繁に登場するため、ある程度演算器の構成などに柔軟性を持たせることで今後登場する技術にも対応できるようにする配慮が必要であるが、Hanguang 800はある意味「設計時点で見えている技術に最適化する」という、割り切った構成になっている。
この連載の記事
-
第802回
PC
16年間に渡り不可欠な存在であったISA Bus 消え去ったI/F史 -
第801回
PC
光インターコネクトで信号伝送の高速化を狙うインテル Hot Chips 2024で注目を浴びたオモシロCPU -
第800回
PC
プロセッサーから直接イーサネット信号を出せるBroadcomのCPO Hot Chips 2024で注目を浴びたオモシロCPU -
第799回
PC
世界最速に躍り出たスパコンEl Capitanはどうやって性能を改善したのか? 周波数は変えずにあるものを落とす -
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ