3次キャッシュを積層しても
それほど原価率は上がらない
もう1つおもしろいのが価格である。試しに今回の4製品と、おそらくは競合と位置付けられるであろうIce Lakeベースの第3世代Xeon Scalableのスペックを並べてみたのが下表である。Xeon Scalableはコア/スレッド数を合わせ、その中で一番動作周波数が高いものをピックアップしてみた。なお、64コア製品はXeon Scalableには存在しないので、一番多い40コア製品を入れてある。
第3世代Xeon Scalableとのスペック比較 | |||||||
---|---|---|---|---|---|---|---|
AMD | |||||||
スレッド数 | モデルナンバー | 周波数 | TDP(W) | 価格 | |||
Base | Boost | ||||||
128 | EPYC 7773X | 2.20GHz | 3.50GHz | 280W | $8,800 | ||
64 | EPYC 7573X | 2.80GHz | 3.60GHz | 280W | $5,590 | ||
48 | EPYC 7473X | 2.80GHz | 3.70GHz | 240W | $3,900 | ||
32 | EPYC 7373X | 3.05GHz | 3.80GHz | 240W | $4,185 | ||
インテル | |||||||
128 | Xeon Platinum 8380 | 2.30GHz | 3.40GHz | 270W | $8,666 | ||
64 | Xeon Platinum 8362 | 2.80GHz | 3.60GHz | 265W | $5,828 | ||
48 | Xeon Gold 6342 | 2.80GHz | 3.50GHz | 230W | $2,706 | ||
32 | Xeon Gold 6326 | 2.90GHz | 3.50GHz | 185W | $1,392 |
こうしてみると、64コアや32コアに関しては、インテル製品の価格に近いところに合わせてある感じがするが、24/16コアに関しては独自の価格設定という感じになっており、あまり価格を合わせている感じがしない。むしろ、3D V-Cacheなしモデルに1000ドル増し、という方が自然に感じられる。
1000ドルを8ダイで割るとダイあたり125ドルという計算になる。もちろんEPYCだから原価率は低く抑えていると思うが、仮に5割だとすると3D V-Cacheのダイの製造コストと3Dスタッキングのコストを足すと62.5ドルという計算になる。
前回も書いたが、3D V-Cacheのダイサイズは41mm2と、もともとのZen 3のダイの半分弱なので、ダイコストは50ドルかそのくらい。後工程で位置合わせをして実装するのに10ドルくらいというのはわりと妥当な推定ではないかと思う。というより、位置合わせと積層のコストをこの程度に抑えないと普及しないだろう。
これはRyzen 7 5800X3Dの449ドルという価格を考えても妥当な推定に思える。Ryzen 7 5800Xも2020年11月の発表時の価格は449ドルだったが、現状の市販価格は例えばNeweggでは348.99ドルといったところ。こちらは原価率はそこまで高くないと思うが、ショップが仮に10%の利益を取ったとしてAMDからの卸価格は315ドルくらいだ。
これに1ダイ分の3D V-Cache積層の原価62.5ドルと多少の利益を載せたとして、卸価格は400ドル程度。そこから10%の利益を載せるとちょうど449ドルあたりになる計算で、これまた辻褄が合う計算だ。
例外はEPYC 7373Xで、EPYC 73F3との価格差は600ドルほどしかない。つまりEPYC 7373Xのみ原価率が低い計算になる。ただEPYC 7373Xの場合、8ダイで16コア、つまり各ダイあたり2コアしか使っていないモデルなので、おそらくはコア側に欠陥があるダイ(3次キャッシュは無事)を救済できるわけで、その分原価率は低く抑えられる。したがって3次キャッシュを積層してもそれほど原価率が上がらないと考えられる。
ところで今回のMilan-Xは、必ずしもすべての用途に向いているとは言えない。実際AMDも、Milan-Xはあくまでも“Cache Sensitive Use Case”(キャッシュの効果が大きい用途)向けにのみお勧めとしており、既存のMilanベースのEPYC 7003シリーズも併売されることになっている。
なぜという話は以前マイクロソフトによるベンチマーク結果をご紹介した時にほぼ答えが出ているが、大量のデータをオンメモリーに置いてひたすら計算をかけるような処理では確かに性能が向上しやすいものの、ある領域を超えると結局追加の3次キャッシュも飽和してしまい、その先はメモリーアクセスがボトルネックになって性能が伸びない、という結果が実際にでているためだ。
下の画像のケースが一番わかりやすいと思うが、効果を一番引き出すにはノードあたり8VM程度を維持する必要があり、これを32VMなどにすると効果はあるものの、通常のMilanと大差ないことになってしまうためで、コストパフォーマンスを考えると使いどころが限られるのは致し方ないところだろう。
ちなみにAMDからはXeonと比較しての性能の高さをアピールするスライドも示されているが、Ice Lake世代に比べて勝っているのは当然であり、本命の対抗馬はIntel 7で製造されるSapphire Rapidsベースの第4世代Xeon Scalableということになる。
もっともそのSapphire Rapidsがどんどん投入が遅れている(間もなく第1四半期が終わってしまう)から、結局Sapphire Rapidsから時間を置かずにGenoaベースの第4世代EPYCが投入されることになりそうで、そのあたりも勘案するとMilan-XはIce Lake世代との比較が結果として一番適切なのかもしれない。
この連載の記事
-
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ