ロードマップでわかる!当世プロセッサー事情 第672回
Navi 3を2022年末、Instinct MI300を2023年に投入 AMD GPUロードマップ
2022年06月20日 12時00分更新
Instinct MI300を2023年に投入
次はCDNA側だが、こちらは2023年までのロードマップとなった。
その次世代製品は2023年に投入されるInstinct MI300となるが、こちらは以下の点が挙げられている。
- 5nmプロセスを採用
- 3D Chiplet構成と明示しているあたり、3D V-Cacheの搭載は確定的
- 第4世代Infinity Architectureを採用
- 後述するUnified Memory Architectureを採用
- 新しいMath Formatをサポート
まず3D Chiplet。下の画像の右の図で見る限り、GPUダイにInfinity Cacheダイが接続する構成に見える。もともとInstinct MI200では連載635回で説明したように2次キャッシュはあったものの、Infinity Cacheのような大容量キャッシュは搭載していなかった。理由は単純で、XCUの数が多すぎてダイサイズがギリギリであり、さらに大容量キャッシュを積むゆとりがなかったからだ。
しかし、Infinity Cacheの効用はRadeon RX 6000シリーズでも明確であり、HBM(おそらくInstinct MI300ではHBM3だろう)は帯域は大きいもののレイテンシーも大きいから、この間を埋める大容量キャッシュがあれば、コアをフルに稼働できる。
もっと言えば、Frontierの高い性能/消費電力比の理由を連載670回で説明したが、もう無理に動作周波数を上げるよりも、そこそこの動作周波数に抑えて効率を上げる方がトータルでは良い結果になることが見えている。
Frontierにしても、仮にEPYCを2.2GHz、Instinct MI250Xを1.7GHz駆動にすれば、ノードあたり196TFlopsになり、ノード数そのものは8500弱まで減らせる計算になる。ノードが減ればその分通信のレイテンシーも減る……はずではあるが、9248ノードを8500ノードまで減らしても、ネットワークトポロジーそのものは変わらない(例えば3段のFat Treeが2段にできるか? と言えば無理だろう)と思われるので、レイテンシーそのものはほぼ変わらず、効率は大して変わらない。
その一方でノードあたりの消費電力は2.7KWほどになり、システムの消費電力は23MWを超えることになる。ランニングコストの大半が消費電力であることを考えれば、フル駆動という案はないだろう。
さてMI300に話を戻すと、おそらくTSMC N5はN7比でロジック密度は最大80%増しとされるが、N7→N6でロジック密度が18%増しだったことを考えると、N6→N5、つまりMI200からMI300では多くて5割増しといったところだろう。
MI200が128XCUだったから、192XCUくらいだろうか? MI200が4つのCompute Engineだったものを6つに増やすという程度だろう。ただしこれを常にフルに動かしきれるか? というと、おそらく相応のメモリーアクセス待ちが発生するから効率はそれほど高くないと考えるのが自然だ。
ところがInfinity Cacheを追加すれば、このメモリーアクセス待ちが大幅に改善されることが期待できる。するとMI300の実効性能そのものを高くとれるから、動作周波数をやや下げても問題ない、という話になる。要するに性能を下げずに消費電力を下げるための手段としてInfinity Cacheの搭載が有効なわけだ(これはRyzen 7 5800 X3Dでも同じだ)。
ところで物理的にこのGPUダイとInfinity Cacheのダイがどうとながるか? であるが、おそらくGPUダイそのものはInstinct MI100/200と同じく700mm2程度の巨大なダイサイズが今回も継承されると考えられる。
となると、Ponte VecchioのRAMBO Cacheのように、Infinity Cacheの方は複数のGPUダイにまたがる巨大なものにはならない(できない)ことになる。ステッパーの露光寸法の限界(最大でも8002mm強)に引っかかるからだ。むしろ歩留まりを高めるためには、もっと小さいサイズに分割した方が効果的である。
別にInfinity Cacheが2バンクではいけない理由もない。Infinity Cacheの方は300mm2弱で、256MB程度の容量の確保は難しくないだろう。チップ全体では512MB程度のキャッシュが使えれば、かなり性能向上(というより性能低下防止)に効果的だろうと考えられる。
新しいフォーマットは、FP8のサポートだろう。FP8は連載661回で紹介したが、NVIDIAのHopperが初採用したフォーマットである。
この連載の記事
-
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ