アクセラレーターが3次キャッシュや
メモリーに直接読み書きできる
次の話がAiA(Accelerator interfacing Architecture)である。要するに、より効率的にアクセラレーターを利用できるようにするというもので、具体的にはアクセラレーターに対してキャッシュコヒーレンシなメモリーアクセスが可能というものだ。
つまりアクセラレーターが3次キャッシュやメモリーに直接読み書きを可能にできるというものだ。おそらくはCXL経由でのアクセラレーターも、このAiAに対応したものであればやはりキャッシュコヒーレンシを保つ形でアクセス可能になっているものと思われる。
このAiAの上に載る形で、先に書いたAMXのほかにDSA(Data Streaming Acceleration)EngineやIntel QAT(Quick Assist Technology)などが搭載されるが、今回初搭載のDSAはともかく、QATそのものは以前から提供されていた技術である。ただこちらもAiAを利用することで大幅に効率が上がったようで、実にCPU処理の98%をオフロードできるとしている。
多数の仮想マシンからデバイスを利用できる
次が、これはHotChipsで発表された話だが、SVM(Shared Virtual Memory)とS-IOV(Scalable IO Virtualization)の実装である。SVMそのものは以前からあり、OpenCLなどですでに対応している
おそらく今回はCXL 1.1の搭載に合わせ、CXLベースのアクセラレーターもSVMを利用できるようになった、という話だろう。一方のS-IOVは、SR-IOV(Single Root I/O Virtualization)をハードウェア的にアシストすることで、多数のVM(仮想マシン)からデバイスを利用できるようにするというものだ。
大規模なデータセンターサーバーでは、多数のVMがハードウェアを共有して使うケースは珍しくなく、ところがPCI Expressで定められたSR-IOVの機能はそれほど多くのVMからアクセスされることを想定しておらず、これがボトルネックになることがしばしばあった。これを解決するためのものがS-IOVである。
この連載の記事
-
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU -
第787回
PC
いまだに解決しないRaptor Lake故障問題の現状 インテル CPUロードマップ - この連載の一覧へ