ロードマップでわかる!当世プロセッサー事情 第640回
AI向けではないがAI用途にも使えるCoherent LogixのHyperX AIプロセッサーの昨今
2021年11月08日 12時00分更新
MNP(Memory-Networked Processing)アーキテクチャーは
メモリーと演算ユニットを格子状に配置して重ねる構成
Linley Processor Conferenceでの説明は、それではMNPとはなにか? という話から入る。既存のアーキテクチャーは大抵の場合Unified Memory、つまりメモリーシステムは1ヵ所にまとまり、ここにシステムのその他のユニットからアクセスされる形をとる。この結果としてこのメモリーシステムがシステム全体のボトルネックになるという話だ。
単に帯域だけではなくレイテンシーも増えやすいし、広帯域/低レイテンシーなバスは消費電力、エリアサイズともに大きくなる。最近CPUが大容量キャッシュを搭載するようになったのも、メモリーシステムそのものがシステムの要求に追いつかなくなってきたため、これを緩和するためという用途に加え、バスネックを少しでも減らしたいという目的もあることを考えれば、少なくともこのスライドの言っていることは正しい。
この問題を解決するために、MNPではメモリー(DMR)と演算ユニット(PE)をそれぞれ格子状に配置して重ねるというおもしろい構成を取っている。PEは隣接するDMRからデータを取得し、演算結果はまた隣接するDMRに送り出す形になる。DMRは自身もメモリーを持つとともに、自身にないデータは隣接するDMRから取得する(逆にPEから格納された演算結果を必要に応じて別のPEに送り出す)という仕組みになっている。
外部メモリーもI/Oの扱いになっており、使い方としては煩雑にメモリーアクセスするというのではなく、必要に応じてブロック単位で読み込み、各DMRに分散させて格納。PEはあくまでもDMRしか見ずに演算するという、昨今のAIプロセッサーと同じ仕組みになっている。
スライドが前後するが、このMNP構成の演算ユニットをまとめたものを、同社ではHyperXアーキテクチャーと称している。おもしろいのは、このPEをどう組み合わせるかを自由に定義できることだ。
各PEはそれぞれ独自にInstruction Memoryを保持しているので、PE単体でももちろん動作するが、複数組み合わせて機能ブロック(Function Block)を構成することもできる。このブロックをどう組み合わせるかはプログラマーが定義でき、なんなら稼働中にブロック構造を動的に変更することも可能とされる。さらに上図にあるように、I/Oを経由して複数のHyperXチップを結合することも可能である。
ところでこの構図、「DMRからデータが取れる、あるいはDMRに結果を書き出せる」時はPEは稼働し、「データが来てない、もしくはデータを書き込めない」時にはPEが止まることになる。つまりデータの有無で動作制御できるわけで、事実上のデータフロー構成のプロセッサーとして稼働しているわけだ。このあたりの特徴だけ見ると、昨今のAIプロセッサーそのものという感じである。
ちなみに同社によれば、HyperXは6レベルの並列性があるとしている。まずブロック単位の処理(=タスク)で言えば、1つのブロックに複数のPEを含めるので、SIMD的な処理も可能で、個々のPEで別々の処理もできるから、その場合はMIMD動作になる。
またPEの稼働にともなう通信は全自動で行なわれ、PE内部も複数の同時処理が可能(SIMD演算を含むVILW命令)で、I/Oも複数を同時に動作できる。これを支えるのはDMR同士の通信であるが、リンク帯域は1方向あたり192Gbpsに達し、チップ全体では5Tbit/秒以上の帯域を誇ることになる。

この連載の記事
-
第811回
PC
Panther Lakeを2025年後半、Nova Lakeを2026年に投入 インテル CPUロードマップ -
第810回
PC
2nmプロセスのN2がTSMCで今年量産開始 IEDM 2024レポート -
第809回
PC
銅配線をルテニウム配線に変えると抵抗を25%削減できる IEDM 2024レポート -
第808回
PC
酸化ハフニウム(HfO2)でフィンをカバーすると性能が改善、TMD半導体の実現に近づく IEDM 2024レポート -
第807回
PC
Core Ultra 200H/U/Sをあえて組み込み向けに投入するのはあの強敵に対抗するため インテル CPUロードマップ -
第806回
PC
トランジスタ最先端! RibbonFETに最適なゲート長とフィン厚が判明 IEDM 2024レポート -
第805回
PC
1万5000以上のチップレットを数分で構築する新技法SLTは従来比で100倍以上早い! IEDM 2024レポート -
第804回
PC
AI向けシステムの課題は電力とメモリーの膨大な消費量 IEDM 2024レポート -
第803回
PC
トランジスタの当面の目標は電圧を0.3V未満に抑えつつ動作効率を5倍以上に引き上げること IEDM 2024レポート -
第802回
PC
16年間に渡り不可欠な存在であったISA Bus 消え去ったI/F史 -
第801回
PC
光インターコネクトで信号伝送の高速化を狙うインテル Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ