HBMコントローラーをパッケージにどう収めるか?
もう1つの問題はパッケージサイズとHBMに関わる部分だ。UPIとHBM、つまりEMIBを利用して接続するI/Fに関しては、タイルの最外周に配置する必要がある。電源やDDR5に関しては、Package Substrateの中を通して引っ張り出せるが、EMIB経由ではそうした長い配線は利用できないからだ。
左上のものをTile 1とすると、そのTile 1におけるUPIとHBMのコントローラーの物理的な位置は下図のようになる。
HBM搭載パッケージは長辺方向がさらに伸びるわけで、するとHBM2eのスタックはTile 1の上側に位置することになる。
このTileを4つ並べるとどうなるか? というのが下図である。もしSPR HBMが横に広いパッケージになっていれば、図の構成は容易だ。ところが実際には縦方向に長いわけで、図の構成では問題があることになる。
解決策は2案ある。1つはHBMのコントローラーを2つ設け、下図のようにどちらかを使う方法にすることだ。ごらんの通り、これならHBMスタックをタイルの上下に追い出せる。ただしHBMコントローラーを余分に搭載する分、エリアサイズが無駄になる。
もう一つの案は、下図のように鏡合わせのように2種類のタイルを用意することだ。
こうすると、4タイルの構成も下図のようにHBMスタックを上下に追い出せ、しかも無駄な2つ目のHBMコントローラーを搭載する必要はない。その代わりに2種類のタイルを製造する必要があり、これは間違いなくコストアップにつながる。
筆者としては3つ前の画像の「2つのHBMコントローラーを搭載している」案を推したいところだが、これも正直製品が出てこないとよくわからない部分である。
なお、カンファレンスにおける質疑応答としてもう1つ明らかになったのは、Sapphire Rapidsは4本のUPI Linkを外部に出すほか、DDR5は8chと説明されているが、これはトップエンドのSKUのみならずそれ以下のSKUでも共通する。
同じ問題は第1世代EPYCでも存在しており、それもあって第1世代EPYCは有効コア数が少ないSKUであっても4ダイ構成を取ることになっていたが、同じようにSapphire RapidsもすべてのSKUでタイルは4つなのか、あるいは実は今は1タイルとして示しているものが、実際にはCPUコアやLLC、アクセラレーターを搭載したタイルとDDR5/UPI/PCIeを搭載したタイルの2つに分かれており、間をEMIBでつなぐという話なのか、もしくは低コア向けにはメモリーコントローラーやPCIeを倍量搭載するタイルが用意されているのか。いろいろと謎は尽きない(むしろ謎が深まった)のが現時点でのSapphire Rapidsの状況である。

この連載の記事
- 第667回 HPですら実現できなかったメモリスタをあっさり実用化したベンチャー企業TetraMem AIプロセッサーの昨今
- 第666回 CPU黒歴史 思い付きで投入したものの市場を引っ掻き回すだけで終わったQuark
- 第665回 Windowsの顔認証などで利用されているインテルの推論向けコプロセッサー「GNA」 AIプロセッサーの昨今
- 第664回 Zen 3+で性能/消費電力比を向上させたRyzen Pro 6000 Mobileシリーズを投入 AMD CPUロードマップ
- 第663回 Hopper GH100 GPUは第4世代NVLinkを18本搭載 NVIDIA GPUロードマップ
- 第662回 グラボの電源コネクターが変わる? 大電力に対応する新規格「12VHPWR」
- 第661回 HopperはHBM3を6つ搭載するお化けチップ NVIDIA GPUロードマップ
- 第660回 第3世代EPYCは3次キャッシュを積層してもさほど原価率は上がらない AMD CPUロードマップ
- 第659回 ISSCC 2022で明らかになったZen 3コアと3D V-Cacheの詳細 AMD CPUロードマップ
- 第658回 人間の脳を超える能力のシステム構築を本気で目指すGood computer AIプロセッサーの昨今
- 第657回 2024年にArrow LakeとLunar Lakeを投入 インテル CPUロードマップ
- この連載の一覧へ