このページの本文へ

ロードマップでわかる!当世プロセッサー事情第485回

AMD GPUロードマップ  Radeon InstinctはTesla V100とほぼ同性能

2018年11月19日 12時00分更新

文● 大原雄介(http://www.yusuke-ohara.com/) 編集●北村/ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

Infinity Fabricの
信号速度は50Gbps

あいにくこの写真を撮った時は時間がおしていて、Wang氏にこのポートはなんなのかを聞けなかった

 次にInfinity Fabricの話をしよう。上の画像はサーバーシャーシにRadeon Instinct MI60を8枚装着した構成だが、4枚のRadeon Instinct MI60の上に結構大きな板が載っているのがわかる。その板は下の画像のような感じだ。

Infinity Fabricでの相互接続は最大でも4枚となっており、このケースのように8枚構成だと、2つの4枚の塊をPCI Expressでつなぐ形になる

 説明によれば信号はx16構成ということなので、信号速度は50Gbpsという計算になる。下の画像が妙に頑丈なシールド構成になっており、しかも途中にバッファらしきものが入っているのは、50Gbpsで信号を通すためだとすれば納得がいく。

全体的にカバーが掛けられていて、実際の配線などは見えないようになっていた。カバーというよりもシールドなのかもしれない。妙に幅広なのは、おそらく配線と配線の間にクロストーク防止用のGNDラインをたっぷり含んでいるためと思われる

 このInfinity Fabricであるが、説明によれば双方向ではあるが、構成はRing Busになっているという話であった。要するに上の画像のコネクターは、内部的には図のような配線になっている模様だ。

Infinity Fabricの配線

 Radeon Instinct MI 50/60側は送信/受信ともに100GB/秒(50Gbps×16)で行なう格好である。この構成の場合、隣接するノードに最短だと1hop、最長だと3hopで通信することになるあたり、二重リングになっている可能性もある(そのあたりまで突っ込んでは教えてくれなかった)が、逆に最大でも4枚に限っているから、レイテンシはあまり気にしなくても良いと判断した可能性がある。

 ところでInfinity Fabricで接続するということは、逆に言えばキャッシュコヒーレンシが保たれるという意味でもあり、さらに言えば4枚のRadeon Instinct MI50/60に搭載される16/32GBのメモリーが、それぞれ別のアドレス空間にマッピングされることになる。

 ということは、このInfinity Fabricを経由して、あるRadeon Instinct MI50/60に搭載されたVega 20コアが、別のRadeon Instinct MI50/60に搭載されたメモリーにアクセスすることも可能になるはずである。実際確認したところ、これは可能という話であった。NVIDIAもUnified Memoryという形でNVLink経由でのメモリー共有をサポートしているが、この点でも並んだことになる。

 GPU同士をInfinity Fabricで接続するなら、CPU⇔GPU間もInfinity FabricあるいはCCIXでつないでしまえば、もっと帯域が上がるうえにキャッシュコヒーレンシが取れるのに、という気もするのだが、確認したところ「ROCmが対応してないから無理」という話であった。デバイスドライバーの構造も大幅に変わらざるを得ないため、そうそう簡単には話が進まないのだろう。

この連載の記事