ロードマップでわかる!当世プロセッサー事情 第672回
Navi 3を2022年末、Instinct MI300を2023年に投入 AMD GPUロードマップ
2022年06月20日 12時00分更新
CPUからも自由にアクセスできるUnified Memory
RDNA 3を搭載するMI300の最大の特徴は、次に説明するUnified Memoryである。これはHBM Memoryを、MI300コアからだけでなく、CPUからも自由にアクセスできるというものだ。
こちら明言はされていないが、Instinct MI300とほぼ同時期に投入されるGenoaコアのEPYCがCXL 2.0に対応しており、しかもメモリー拡張機能を持っていると明言されている。この結果として、CPUとGPUの協業が非常に容易になった。
非CXL環境では以下の手順だった。
- (1)CPUからデータをHost側メモリに書き込む
- (2)データをDMAでホスト側メモリーからアクセラレーター側メモリー(今回ならHBM)に書き込む
- (3)書き込まれたデータを利用してアクセラレーター(今回ならMI300)が処理する
- (4)処理結果(これもアクセラレーター側メモリー:今回ならHBM)をホスト側にDMA転送する
- (5)CPUがメモリーから結果を取り出す
これが以下のようになる。
- (1)CPUからデータをCXL経由でアクセラレーター側メモリー(今回ならHBM)に書き込む
- (2)書き込まれたデータを利用してアクセラレーター(今回ならMI300)が処理する
- (3)CPUが処理結果(これもアクセラレーター側メモリー:今回ならHBM)をCXL経由で取り込む
もちろんホストとアクセラレーター間の同期を取る作業はどちらでも必要になるが、これについてもCXL.ioで簡単に取れるので、処理そのものが非常に簡単になる。CXLの制限で、アクセラレーター(つまりMI300)が、直接ホストのメモリーに触ることはできないが、これはInstinct MI300の使い方を考えれば別にデメリットにはならないだろう。
CPUから見ると、Instinct MI300のHBMメモリーが、物理メモリーアドレスのどこかにマッピングされる形になっている。これは仮想記憶の対象ではないので、プログラムから使うためにはHBMの物理メモリーアドレスを自分の仮想メモリーアドレスにマッピングする必要があるが、このあたりは将来投入されるROCm 5でカバーされることになると思われる。
ちなみにこの機能が使えるのは、CXL 2.0のメモリープロトコルに対応したホストCPUのみである。当面はGenoaベース(つまりZen 4ベース)のEPYCのみ。Zen 4cベースのBergamoでもサポートされるかどうかは現時点ではっきりしない。
Bergamoはクラウドサーバー向けのEPYCなので、将来的にはCXLのアタッチドメモリーへの対応は必須だろうが、Instinct MI300を組み合わせるという使い方はされないであろうことを考えると、CXL 2.0をフルサポートするかどうかは不明である。
このInstinct MI300は2023年に市場投入とされる。
最初のターゲットとなるのは、ローレンス・リバモア国立研究所に導入されるスーパーコンピューターEl Capitanであろう。Frontierの構成のままノード数を増やしても2EFlopsの実現はそう難しくはないだろうが、やはりノード数が増えると実行効率が下がりがちなのは連載670回でも説明した通りだし、消費電力もシステム全体で30MW近くなる。おそらくEl Capitanでは、ノードあたりの性能を引き上げることで、ノード数そのものはFrontierと同等かむしろ少ないくらいで、2EFlopsを目指す構成になるのではないかと想像する。
この連載の記事
-
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ