MDCを実現するためには
Optane DC Persistent MemoryとGen-Zが必要
ここからの資料はHPEが2018年に行なったHPC&AIフォーラム2018におけるプレゼンテーションであるが、まずMDCを実現するための要素技術として、インテルのOptane DC Persistent MemoryとGen-Zを挙げた。

Optane DC Persistent Memory。容量もこの時点で512GBまでラインナップされ、The Machineに使われたものの4倍のメモリー容量が実装可能となる
画像の出典は、HPE HPC & AI フォーラム 2018 講演資料
Gen-ZはGen-Z Consortiumが開発しているサーバー向けインターコネクトの技術であり、単にシャーシ内部だけでなくシャーシ間あるいは(近距離の)ラック間での接続も視野に入れた規格である。
下敷きにしているのはInfiniBandであるが、実装はInfiniBandに留まらず、より高速な接続も可能になっていることと、当初からメモリーの接続(SCM:Storage Class MemoryのみならずDRAMも視野に入れている)を考慮しており、確かにMDCに利用するには最適である。
ただHPはThe Machineをそのまま顧客に届けるわけではなく、既存の製品ラインにThe Machineで培ったMDCの技術を入れ込む方向を取っている。
同社のハイエンドサーバーは引き続きSuperdomeが務めているが、2016年にはミッションクリティカル向けのSuperdome Xを発表、2017年末にはさらに上位機種となるIn-Memory Computingにも対応したSuperdome Flexを国内発表している。
この時点でのIn-Memory Computingは、SAP HANAやOracle DB In-memoryなど、従来型のCDCベースながら大量のメモリーを利用する用途を考えたものであるが、このSuperdome FlexにMDC的な使い方を可能にするオプションがあることが発表された。
またMDCが利用できるかどうか、を確認するためのテストを行なうためのSandboxを提供予定であることも明らかにしている。
ちなみに国内では、2019年3月からNTT ComのNexcenterに検証環境が置かれているそうだ。
まだ現状MDCは始まったばかりであって、今後これが主流になるかどうかを含めて海のものとも山のものとも知れない状態に変わりはないのだが、研究開発費が削られまくった2000~2010年代を生き延びたというだけでも特筆ものと言えるかもしれない。

この連載の記事
-
第816回
PC
シリコンインターポーザーを使わない限界の信号速度にチャレンジしたIBMのTelum II ISSCC 2025詳報 -
第815回
デジタル
3次キャッシュがスリムになっていたZen 5、ISSCCで公開された詳報 AMD CPUロードマップ -
第814回
PC
インテルがチップレット接続の標準化を画策、小さなチップレットを多数つなげて性能向上を目指す インテル CPUロードマップ -
第813回
PC
Granite Rapid-DことXeon 6 SoCを12製品発表、HCCとXCCの2種類が存在する インテル CPUロードマップ -
第812回
PC
2倍の帯域をほぼ同等の電力で実現するTSMCのHPC向け次世代SoIC IEDM 2024レポート -
第811回
PC
Panther Lakeを2025年後半、Nova Lakeを2026年に投入 インテル CPUロードマップ -
第810回
PC
2nmプロセスのN2がTSMCで今年量産開始 IEDM 2024レポート -
第809回
PC
銅配線をルテニウム配線に変えると抵抗を25%削減できる IEDM 2024レポート -
第808回
PC
酸化ハフニウム(HfO2)でフィンをカバーすると性能が改善、TMD半導体の実現に近づく IEDM 2024レポート -
第807回
PC
Core Ultra 200H/U/Sをあえて組み込み向けに投入するのはあの強敵に対抗するため インテル CPUロードマップ -
第806回
PC
トランジスタ最先端! RibbonFETに最適なゲート長とフィン厚が判明 IEDM 2024レポート - この連載の一覧へ