ロードマップでわかる!当世プロセッサー事情 第673回
インテルがAIプロセッサーに関する論文でIntel 4の開発が順調であることを強調 AIプロセッサーの昨今
2022年06月27日 12時00分更新
今年6月13日から開催されたVLSI Symposium 2022はいろいろ話題が多く、例えばインテルはIntel 4の詳細を公開していたりする。この話はまた改めてきちんと説明するが、インテルは今回全部で15もの発表を行なっている。もっともこの中にはShort Course(技術講座)の分も含まれているので、論文そのもので言えば12本となっている。
論文の中に、“[C08-1] An 8-core RISC-V Processor with Compute near Last Level Cache in Intel 4 CMOS”と呼ばれるものがある。これだけ見ると「Intel 4プロセスを使ったRISC-Vコア?」ということでちょっとびっくりしたのだが、中を見ると「そりゃRISC-V使った方が楽だよね?」という、分類としてはAIプロセッサーに属するものだった。
これはあくまで研究レベルの話で、そのまま製品になることはなく、将来のx86プロセッサーに応用される「かもしれない」レベルの話であるが、なかなかおもしろかったので解説したい。
Intel 4プロセスのAIプロセッサー
さてこの論文であるが、タイトルの中で重要なのは“An 8-core RISC-V Processor”でも“in Intel 4 CMOS”でもなく、“with Compute near Last Level Cache”である。要するに分類としては、連載668回でも触れたPIM(Processor In Memory)の延長にある。
ただPIMはメモリベンダーには容易なソリューションなのだが、そうでないとまずメモリーを構築するところから始まるので大変である。これに対して、Last Level Cacheは、インテルで言えば3次キャッシュに演算ユニットを突っ込むのはそれほど大変なことではない。
さて、もうすこし厳密にCompute Unitをどこに入れるか? を検討したのが下の画像だ。CPUコア内に置くのが一番悪手というのはわかるとして、アクセラレーター/LLC/DRAMのどこで置くのがベターか? というのはエネルギー効率、容量、帯域の観点でトレードオフの関係になる、としている。
インテルは今回、LLCの中にCompute Unit(CNC)を実装することで、それなりに高い演算性能とメモリー帯域・容量をバランスよく利用できるようにする選択肢を選んだ格好だ。
この効果を試すためのプラットフォームとしてインテルはRISC-Vコアを選んだ。この構図はCoreアーキテクチャーのRing Busを彷彿させるが、厳密にはRing Busではなく2D Meshの構成になっている。8つの64bit RISC-Vコアに、それぞれ64KBのSRAMとCNCを組み合わせて配する格好で、2次キャシュ(今回の構成はRISC-VはL1 I/D-Cacheのみ搭載されている)の合計は512KBになる。なんというか非常に小規模なコアである。
ここに搭載されるCNCであるが、256bit幅の比較的単純なSIMDで、演算も可能なのはMAC演算のみである。命令も演算(MACCNC)以外にLLCからのロードとLLCへのストアー(Load/Store)、CNC用のRF(Register File)への書き込みと読み出し(RDCNC/WRCNC)の5種類のみとなっている。
もちろん演算そのものはCNCに隣接したLLCとの間でしか行なわれない形になっている。
演算の詳細そのものはこちらのスライドでは明記されていないが、論文の方を読むと“CNC multiplies an 8×8 INT8 Matrix by an 8×1 INT8 Vector and accumulates the INT32 result in RFCNC”とあるので、INT8の8×8の行列と8×1行列の乗算を行ない、その結果をINT32としてCPUコアの側の汎用レジスターに送り出す、という処理をするとしている。
この連載の記事
-
第801回
PC
光インターコネクトで信号伝送の高速化を狙うインテル Hot Chips 2024で注目を浴びたオモシロCPU -
第800回
PC
プロセッサーから直接イーサネット信号を出せるBroadcomのCPO Hot Chips 2024で注目を浴びたオモシロCPU -
第799回
PC
世界最速に躍り出たスパコンEl Capitanはどうやって性能を改善したのか? 周波数は変えずにあるものを落とす -
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ