ロードマップでわかる!当世プロセッサー事情 第590回
Radeon Instinct MI100が採用するCDNAアーキテクチャーの内部構造 AMD GPUロードマップ
2020年11月23日 12時00分更新
CDNAはRDNAにかなり近いが
SIMDエンジンをHPC向けにチューンしている
個々のCU(CUDA 1.0ではXCUという名前になっている)の構造が下の画像である。1つのXCUに64個の演算ユニットが実装されるという構図はGCNやRDNAと同じであるが、GCNとの比較で言えば以下の違いがある。
- FP64/FP32のサイクル当たりの処理性能(Vector FP32/FP64)は同じ(FP64で64Flops/サイクル、FP32で128Flops/サイクル)
- 新たに行列演算を高速化するMatrix Unitと呼ばれる仕組みが入り、これを利用することでFP32だと2倍(256Flops/サイクル)の処理性能になる
- FP16は、GCNだとFP32の2倍(256Flops/サイクル)なのに対し、CDNA 1.0ではこの4倍の1024Flopsサイクルで演算可能
- 新たにBFloat16をサポート。演算性能は512Flops/サイクルになる
XCUはこの演算ユニット4つで構成されるので、1CUあたりFP64で256Flops/サイクル、FP32だと512~1024Flops/サイクル、BFloat16で2048Flops/サイクル、FP16なら4096Flops/サイクルになる計算だ。
フロントエンドを含む全体の構成が下の画像だ。RDNAの構成と比較すると、RDNAがWave32での管理となっており、2つの16-Wideをまとめて32-WideのSIMDとして扱う関係か、Wave Controllerは20 Waveになっているのに対し、CDNAではおそらくGCN同様に64-Waveでのハンドリングしていると思われ、Wave Controllerは10 Waveになっているのが目立つ違いである。Vector Registerの数などはRDNAと共通になっている。
さて、先のCDNA 1.0の構造を示す画像によれば、CDNA 1.0はこのXCUを複数個まとめたグループを8つ搭載することになる。Radeon Instinct MI100の仕様によればXCUは120個なので、グループあたり15個のXCUが含まれる計算になるのだが、実際にダイ写真を見ると、16個のXCUが含まれていることがわかる。
つまりハードウェア的には128XCU、8192個のStream Processorが実装されており、このうち120XCU、7680個のStream Processorのみを有効にしているとわかる。
この理由は後述するダイサイズに関係する。CDNA 1.0は過去最大規模のダイサイズであり、それなりに欠陥を含んでも対応できるように、冗長XCUを8つ用意したというあたりであろう。

この連載の記事
- 第704回 自動運転に必要な車載チップを開発するフランスのVSORA AIプロセッサーの昨今
- 第703回 音声にターゲットを絞ったSyntiant AIプロセッサーの昨今
- 第702回 計52製品を発表したSapphire Rapidsの内部構造に新情報 インテル CPUロードマップ
- 第701回 性能が8倍に向上したデータセンター向けAPU「Instinct MI300」 AMD CPUロードマップ
- 第700回 インテルが10年先を見据えた最先端の半導体技術を発表 インテル CPUロードマップ
- 第699回 Foveros Directを2023年後半に出荷 インテル CPUロードマップ
- 第698回 ARA-2の開発を進める謎の会社Kinara AIプロセッサーの昨今
- 第697回 CPUとDSPを融合させたChimeraはまさに半導体のキメラだった AIプロセッサーの昨今
- 第696回 第4世代EPYCのGenoaとBergamoの違いはL3の容量 AMD CPUロードマップ
- 第695回 遅延が問題視されるSapphire Rapidsは今どうなっている? インテル CPUロードマップ
- 第694回 メモリー帯域を増やして性能を向上させたRDNA 3の内部構造 AMD GPUロードマップ
- この連載の一覧へ