ロードマップでわかる!当世プロセッサー事情 第625回
脳の神経細胞を模したSNNに活路を見出すInnatera Nanosystems AIプロセッサーの昨今
2021年07月26日 12時00分更新
これまでたくさんのAIプロセッサーをご紹介してきたわけだが、ほとんどのものはCNN(Convolution Neural Network:畳み込みニューラルネットワーク)に対応したものである。CNNの理屈は連載561回で紹介したが、脳の構造をそのまま模式化するのではなく、勾配法を使ってシミュレーションするような形での実装になっている。
ただ連載561回で説明したように、そもそものニューロンとシナプスのモデルはあくまで神経パルスである。この神経パルスの構造を維持したままニューラルネットワークを構築できないか、ということでやはり研究と開発が進んでいるのがSNN(Spike Neural Network)である。
結論から言えば、今のところSNNがCNNを凌駕する点は1つだけで、推論精度が特に良くなったり、学習が高速化するようなことはない。逆に言えば、SNNにしたことでCNNから失われるものがあるかというと、原理的にはそれもほとんどなかったりする(現実には存在するが)。
ではそのメリットはなにか? というと消費電力である。実際の神経細胞の場合、伝達されるのはパルスであって、その数や頻度で次の「発火」が行なわれる。これを実際にプロセッサー側で模式化すると、値が1bitになる。その意味では1bitのCNN(BNN:Binary Neural Network)とかなり近いものになる。
昨今のCNNの問題点は、ある程度の精度を出すために2bit以上のデータを保持することが多く、消費電力は純粋にデータのサイズに比例することを考えると、SNNはCNNに比べて圧倒的に消費電力が少ないというのが大きなメリットとなる。
ではデメリットは? というと既存のCNN向けプロセッサーの上でSNNにしても、省電力にも高速にもならないことだ。例えば8bit型を扱えるプロセッサーの上でSNNを動かしても、単に7bit分の演算ユニットが遊ぶだけで、8倍高速になるわけではない。8bit×1を1bit×8に分割できるような機構を入れない限り、まったく高速化は望めない。
したがって1bit演算ができるプロセッサーを作らない限り、SNNのメリットは皆無ということになる。SNNというかBNNに関して言えば、XilinxやLatticeといったFPGAベンダーがBNNを実装したものをいくつかリリースしている(製品という意味ではなくIPとして提供しているという意味だ)。
Latticeで言えば、例えば2018年には同社のiCE40という非常に小型のFPGA上でBNNを稼働させ、顔認識を実行するデモが行なわれている。

これはLattice社の日本オフィスでのデモの風景。これはiCE40の評価ボードで、指先の小さなICがiCE40本体だ。このデモでは、カメラ(これは指先の少し右にある黒っぽい立方体)で写した画像が人間の顔かどうかをBNNで判断、顔の場合はLED(指で隠れていて見えない)を光らせるというもの
利用したのはiCE40 UltraPlus(https://www.latticesemi.com/ja-JP/Products/FPGAandCPLD/iCE40UltraPlus)という2800ないし5280LUTを搭載する超小型FPGAで、BNNの実装に3K LUTほど占有する関係で大容量の5280LUT版が必要になる。こちらは単体だと1個600円程度の価格だが、普通(つまりもっと大口購入)だと500円を切る安価なFPGAである。
例えば自動販売機にこれを仕込んでおき、カメラでずっと監視して販売機の前に人が立った時だけ照明をオンにする、という使い方がこれで可能になる。目的が省電力なので、常時照明を点けている場合より消費電力が増えたら監視の意味がない。
昨今では、照明もLEDを使って省電力に配慮しているわけで、それよりもさらに消費電力を下げたい(ついでに言えば省電力のために高コストなAIプロセッサーは入れられない)というケースでは、BNNを使ってネットワーク規模を小さく抑えることで、省電力かつ低コストに実装が可能というわけだ。
これはあくまでBNNの話で、SNNそのものではない。BNNとSNNではそもそも理屈が異なるし、実装も異なる。BNN用のプロセッサーでSNNをそのまま動かせるわけでもない(逆もまたしかり)。ただBNN用のプロセッサーとSNN用のプロセッサーは、必要とされるハードウェア構成がかなり近いのは事実だ。実装は異なるとはいえ、SNNもBNNと似たような市場を志向している。
加えて言うと、CNNとSNNの違いの1つに時間軸がある。CNNの場合、例えば1枚の画像を取り込んで処理する際に、ネットワークのある層から次の層へのデータ転送は1回である。前の層で処理を行ない、その結果を1回送りだしたら、前の層は(次のデータが来るまで)お休みである。
これに対しSNNでは、例えばパルスが3回到達したら「発火」するという具合に、データの処理は一律には行なえない。言ってみればストリーム処理的な対応が必要になる。人間のシナプスの場合、一度「発火」すると、そのあと一定期間「発火しない」時間がある。こうした特性まで取り入れると、さらに時間軸方向で同期がとりにくい。
ただこれは、例えばセンサーデータを随時取り込んでいくといった用途にはむしろCNNより向いているという見方もでき、実際そういう方向での研究も進んでいる。これはニューロモーフィック・コンピューティングなどと呼ばれることもある。

この連載の記事
-
第818回
PC
DDRを併用し低価格・低消費電力を実現したAIプロセッサー「SN40L」 ISSCC 2025詳報 -
第817回
PC
実現困難と思われていたUCIe互換のチップレット間インターコネクトをTSMCとAMDが共同で発表 ISSCC 2025詳報 -
第816回
PC
シリコンインターポーザーを使わない限界の信号速度にチャレンジしたIBMのTelum II ISSCC 2025詳報 -
第815回
デジタル
3次キャッシュがスリムになっていたZen 5、ISSCCで公開された詳報 AMD CPUロードマップ -
第814回
PC
インテルがチップレット接続の標準化を画策、小さなチップレットを多数つなげて性能向上を目指す インテル CPUロードマップ -
第813回
PC
Granite Rapid-DことXeon 6 SoCを12製品発表、HCCとXCCの2種類が存在する インテル CPUロードマップ -
第812回
PC
2倍の帯域をほぼ同等の電力で実現するTSMCのHPC向け次世代SoIC IEDM 2024レポート -
第811回
PC
Panther Lakeを2025年後半、Nova Lakeを2026年に投入 インテル CPUロードマップ -
第810回
PC
2nmプロセスのN2がTSMCで今年量産開始 IEDM 2024レポート -
第809回
PC
銅配線をルテニウム配線に変えると抵抗を25%削減できる IEDM 2024レポート -
第808回
PC
酸化ハフニウム(HfO2)でフィンをカバーすると性能が改善、TMD半導体の実現に近づく IEDM 2024レポート - この連載の一覧へ