Infinity Fabricの
信号速度は50Gbps
次にInfinity Fabricの話をしよう。上の画像はサーバーシャーシにRadeon Instinct MI60を8枚装着した構成だが、4枚のRadeon Instinct MI60の上に結構大きな板が載っているのがわかる。その板は下の画像のような感じだ。
説明によれば信号はx16構成ということなので、信号速度は50Gbpsという計算になる。下の画像が妙に頑丈なシールド構成になっており、しかも途中にバッファらしきものが入っているのは、50Gbpsで信号を通すためだとすれば納得がいく。
このInfinity Fabricであるが、説明によれば双方向ではあるが、構成はRing Busになっているという話であった。要するに上の画像のコネクターは、内部的には図のような配線になっている模様だ。
Radeon Instinct MI 50/60側は送信/受信ともに100GB/秒(50Gbps×16)で行なう格好である。この構成の場合、隣接するノードに最短だと1hop、最長だと3hopで通信することになるあたり、二重リングになっている可能性もある(そのあたりまで突っ込んでは教えてくれなかった)が、逆に最大でも4枚に限っているから、レイテンシはあまり気にしなくても良いと判断した可能性がある。
ところでInfinity Fabricで接続するということは、逆に言えばキャッシュコヒーレンシが保たれるという意味でもあり、さらに言えば4枚のRadeon Instinct MI50/60に搭載される16/32GBのメモリーが、それぞれ別のアドレス空間にマッピングされることになる。
ということは、このInfinity Fabricを経由して、あるRadeon Instinct MI50/60に搭載されたVega 20コアが、別のRadeon Instinct MI50/60に搭載されたメモリーにアクセスすることも可能になるはずである。実際確認したところ、これは可能という話であった。NVIDIAもUnified Memoryという形でNVLink経由でのメモリー共有をサポートしているが、この点でも並んだことになる。
GPU同士をInfinity Fabricで接続するなら、CPU⇔GPU間もInfinity FabricあるいはCCIXでつないでしまえば、もっと帯域が上がるうえにキャッシュコヒーレンシが取れるのに、という気もするのだが、確認したところ「ROCmが対応してないから無理」という話であった。デバイスドライバーの構造も大幅に変わらざるを得ないため、そうそう簡単には話が進まないのだろう。

この連載の記事
-
第813回
PC
Granite Rapid-DことXeon 6 SoCを12製品発表、HCCとXCCの2種類が存在する インテル CPUロードマップ -
第812回
PC
2倍の帯域をほぼ同等の電力で実現するTSMCのHPC向け次世代SoIC IEDM 2024レポート -
第811回
PC
Panther Lakeを2025年後半、Nova Lakeを2026年に投入 インテル CPUロードマップ -
第810回
PC
2nmプロセスのN2がTSMCで今年量産開始 IEDM 2024レポート -
第809回
PC
銅配線をルテニウム配線に変えると抵抗を25%削減できる IEDM 2024レポート -
第808回
PC
酸化ハフニウム(HfO2)でフィンをカバーすると性能が改善、TMD半導体の実現に近づく IEDM 2024レポート -
第807回
PC
Core Ultra 200H/U/Sをあえて組み込み向けに投入するのはあの強敵に対抗するため インテル CPUロードマップ -
第806回
PC
トランジスタ最先端! RibbonFETに最適なゲート長とフィン厚が判明 IEDM 2024レポート -
第805回
PC
1万5000以上のチップレットを数分で構築する新技法SLTは従来比で100倍以上早い! IEDM 2024レポート -
第804回
PC
AI向けシステムの課題は電力とメモリーの膨大な消費量 IEDM 2024レポート -
第803回
PC
トランジスタの当面の目標は電圧を0.3V未満に抑えつつ動作効率を5倍以上に引き上げること IEDM 2024レポート - この連載の一覧へ