メモリー帯域は1TB/秒と
NVIDIAを凌駕する
次がメモリーまわり。Vega 10に比べて倍の4096bit(つまり1024bitのHBM 2が4 Stack)になったことで、メモリー帯域は倍の1TB/秒に達した。
Tesla V100は同じく4 StackのHBM2ながら帯域は900GB/秒で、TuringアーキテクチャーのGeForce RTX 2080 TiはGDDR6ベースで帯域は616GB/秒程度でしかないため、こちらは明確にNVIDIAを凌駕していることになる。
32GBのメモリー容量は少しゲーミングGPUには大きすぎる気もするが、Radeon Instinct MI50は4 StackながらそれぞれのStack容量を4GBにすることで、帯域を変えずに16GBのメモリー容量にしている。
メモリーメーカー側のオプションとしては、他に1GB/2GBが用意されており、これを利用すれば4GB/8GBの構成も取れるから、このあたりは比較的選択肢が広いことになる。先に演算性能はあまり変わらないという話をしたが、このメモリー帯域の広さによる性能改善は多少期待できるだろう。
ちなみにメモリーコントローラー周りで言えば、HBCCはVega 20にもそのまま搭載される(ここの機能は変わらない)という話であった。またそのHBCCは、HBM2以外のメモリーはサポートしていない。
つまりHBM2の代わりにGDDR6を使ったり、HBM2のさらに外にDDR4をつなぐことは一切考慮していないということで、このあたりはVega 10から一切変更がないことが確認された。
ところでそのRadeon Instinct、見た目には普通のGPUカードと変わらない、というよりパッケージ表側だけ見るとRadeon Instinct MI25とほとんど差がわからないのだが、謎なのはバックパネル側で、Mini Displayportと(おそらくはUSB Type-Cポート)が用意されているのが従来と違うところだ。
ただそもそもVega 20も映像出力機能は本来搭載されている(それがなしだと、今後のRadeon Proへの展開が出来なくなる)から出すことそのものは可能だが、用途が不明である。おそらくは管理用だろう。
この連載の記事
-
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ