WSEを搭載したCS-1を発表
日本でも受注開始
Hot Chips 31における発表はここで終わりで、実際にネットワークを載せた場合の性能は開示されなかった。これに関しては2019年11月に行われたSC19で発表があるかと思いきや、発表されたのはこのWSEを搭載したCS-1というシステムであった。
画像の出典は“CS-1 Wafer-Scale Deep Learning System”。(以下、同)
全体の高さは15Uとされる。通常データセンターのラックは42Uなので縦2段積み、たまにある45Uのサイズなら3段積みが可能になる。これを横から見たのが下の写真だ。
CPUはこの写真で言えば右上にある。下半分はほぼ冷却用になっている。そういう意味では液冷といっても、シャーシの外に水冷システムを必要とするものと異なり、PCの簡易水冷の巨大版といった構造になっているのがわかる。そのCPUブロックが下の写真だ。
ちなみにWSEは定格でほぼ15KW(!)ほどの消費電力となっており、おそらくNVIDIAのAmpereと同じくVicorのVRMで供給しているようだ。4KWのPSEが12個も用意されるのも無理ないところである。一番上には制御用CPUと、ネットワーク通信用FPGAが搭載されている。
さて、このSC19での発表や、製品紹介でも、繰り返されたのは下の画像の数字だけである。
画像の出典は、Cerebras SystemsのProduct Overview。
それにもかかわらず、すでにPSC(Pittsburgh Supercomputing Center)が2台のCS-1の導入を決めたほか、アルゴンヌ国立研究所はこのCS-1を新型コロナウイルスのワクチン開発に転用することを発表するなど、出だしは順調である。
国内でも、昨年12月にTEDがCS-1の代理店契約を締結して受注を開始している。さすがにこうしたパートナーには、実際のモデルを動かした場合の性能が開示されているのだと思いたいが、いまだに具体的な性能が出てきていないというのはやや怪しい感じはある。
また、先ほど開発費を加味するとコスト的にはWSEの方が安くなるという議論をしたが、運用コスト(主に電気代)を考えた場合、長期的にWSEの方が安くなるのかどうか、正直よくわからない。理由は、いまだに性能が開示されていないので、性能あたりの消費電力コストの試算ができないからだ。
ただ、同じようにAI学習を目指したWave Computingが見事に立ち往生し、Cerebrasのビジネスが軌道に乗り始めているのを見るに、Wave Computingはぶっ飛び方が足りなかったのかな? と思ったりもする。
この連載の記事
-
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ