INT4やINT1をサポートする
プロセッサーが普及していく
一方整数演算についても、当初はINT32などを使っていたのがすぐINT8に切り替わったが、より積極的にINT4/INT2/INT1なども研究されるようになった。これの先鞭をつけたのはFPGAである。
CPUやGPUの場合、8bit演算が最小単位になっているため、これ未満の単位でも動作としては8bit演算になる。したがって4bitにしてもまったく性能向上に寄与しないのだが、FPGAの場合は4bit演算器や2bit演算器を作りこむことが可能で、その場合は本当に回路規模が小さくなる=同時に処理できるデータ量が多くなるので、性能が向上するというメリットが大きくなる。
これを極端に進めたのがBinary、つまりデータ型が1bitのネットワークである。もちろん1bitなのはデータのみで、フィルターの係数はINT8などになるのだが、こちらは圧倒的に計算量が減らせる。
なぜなら、畳み込み演算などで乗算を全部論理積(And)に置き換えできるからだ。前回、Ampereのアーキテクチャー説明の中でSparsity(疎行列への対応)を説明したが、理屈はアレと同じである。
下図の左側は、連載562回で説明した畳み込みの計算であるが、Binaryの場合は入力画像(A1~A9)が0か1しかないので、事実上掛け算の必要が一切なく、単にB1~B9に論理積を行なってから足し算をするだけで良い。
この論理積のロジックは乗算のロジックよりもずっと簡単に実装できるので、単にデータの格納に必要なメモリーが減るだけでなく、演算ロジックそのものも大幅に簡素化できるから、同時により多数のデータを並列で処理しやすくなり、そのまま性能向上につながる。
8bit未満(4bit/2bit/1bit)に関してはこれまでFPGAの独壇場だったが、NVIDIAがAmpereでINT4/INT1をサポートしたというのは、こうしたトレンドに対応するためと考えられる。
CPU側に関しては今のところこれをサポートする動きはないが、長期的にはSIMD拡張の中でINT4やINT1をサポートする可能性はあるだろう。
またAI向けプロセッサーの中には、このINT4/INT1をオプションでサポートする製品も出てき始めており、今後は広範に普及していくかもしれない。
この連載の記事
-
第798回
PC
日本が開発したAIプロセッサーMN-Core 2 Hot Chips 2024で注目を浴びたオモシロCPU -
第797回
PC
わずか2年で完成させた韓国FuriosaAIのAIアクセラレーターRNGD Hot Chips 2024で注目を浴びたオモシロCPU -
第796回
PC
Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU -
第795回
デジタル
AI性能を引き上げるInstinct MI325XとPensando Salina 400/Pollara 400がサーバーにインパクトをもたらす AMD CPUロードマップ -
第794回
デジタル
第5世代EPYCはMRDIMMをサポートしている? AMD CPUロードマップ -
第793回
PC
5nmの限界に早くもたどり着いてしまったWSE-3 Hot Chips 2024で注目を浴びたオモシロCPU -
第792回
PC
大型言語モデルに全振りしたSambaNovaのAIプロセッサーSC40L Hot Chips 2024で注目を浴びたオモシロCPU -
第791回
PC
妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU -
第790回
PC
AI推論用アクセラレーターを搭載するIBMのTelum II Hot Chips 2024で注目を浴びたオモシロCPU -
第789回
PC
切り捨てられた部門が再始動して作り上げたAmpereOne Hot Chips 2024で注目を浴びたオモシロCPU -
第788回
PC
Meteor Lakeを凌駕する性能のQualcomm「Oryon」 Hot Chips 2024で注目を浴びたオモシロCPU - この連載の一覧へ