インテル コーポレーション ニューロモーフィック Loihi 2、新しいLava ソフトウェア・フレームワーク、新たなパートナー連携でニューロモーフィック・テクノロジーを進展
インテル株式会社
第2世代 リサーチ・チップはIntel 4 プロセス技術を使用し、100 万ニューロン搭載へと拡張オープン・ソフトウェア・フレームワークの発表により、開発者間でのイノベーションと商用化を加速
*2021年9月30日に米国で発表された資料の抄訳です。
最新情報:インテル コーポレーションは本日、第2世代 ニューロモーフィック・リサーチ・チップ Loihi 2 と、ニューロンに着想を得たアプリケーションの開発を支援するオープンソースのソフトウェア・フレームワーク Lava を発表しました。この発表を通じて、インテルはニューロモーフィック・テクノロジー分野で継続的な進歩を示しています。
インテル コーポレーション ニューロモーフィック・コンピューティング・ラボ担当ディレクターのマイク・デイビス(Mike Davies)は「Loihi 2とLavaには、第1世代のLoihiを使用して行われた数年間の共同研究で得られた洞察が取り入れられています。第2世代チップはニューロモーフィック処理の速度、プログラマビリティー、接続性が大幅に向上しており、電力やレイテンシーで制約があるインテリジェント・コンピューティング・アプリケーションでの利用を拡大させます。また、Lava のオープンソース化により、この分野でのソフトウェア・コンバージェンス、ベンチマーク測定、クロスプラットフォームのコラボレーションなどのニーズにも対応し、商用化の実現に向けた進展も加速させています」と述べています。
重要な理由:ニューロモーフィック・コンピューティングは、神経科学から洞察を得て、人間の脳のように機能するチップを創り出す技術で、ビジョン、音声認識、ジェスチャー認識から検索、ロボティクス、制約の高い最適化問題まで、さまざまなエッジ・アプリケーションにわたり電力効率、演算速度、学習効率を格段に向上させることを目標としています。
インテルとパートナーがこれまでに実証したアプリケーションには、ロボットアーム( https://www.intel.com/content/www/us/en/newsroom/news/neuromorphic-research-wheelchair-pediatric.html#gs.cofkcd )、ニューロモーフィック・スキン( https://newsroom.intel.com/news/singapore-researchers-neuromorphic-computing-robots-feel/ )、嗅覚センシング( https://newsroom.intel.com/news/how-computer-chip-smell-without-nose/#gs.927c9l )などがあります。
Loihi 2について: リサーチ・チップは、3年間にわたる第1世代リサーチ・チップ( https://newsroom.intel.com/editorials/intels-new-self-learning-chip-promises-accelerate-artificial-intelligence/#gs.9eldh8 )の使用で得られた知識だけでなく、インテルのプロセス技術と非同期設計手法の進展も反映されています。
Loihi 2の進歩:ニューロンに着想を得たアルゴリズムやアプリケーションを新たなレベルまでサポートし、処理は最大10倍高速化*1、リソース密度は最大15倍増大*2、さらには1チップあたり最大100万ニューロンを搭載し、電力効率も向上しています。インテルの技術開発事業部との緊密な連携により、Loihi 2では Intel 4プロセスのプリプロダクション版を使用して製造されており、Intel 4の健全性と進歩を示しています。Intel 4は、EUV(極端紫外線)リソグラフィーの採用により、従来のプロセス技術に比べてレイアウトの設計ルールが簡素化されました。これにより、Loihi 2を迅速に開発することが可能になりました。
Lava ソフトウェア・フレームワーク: Lava ソフトウェア・フレームワークはニューロモーフィックの研究コミュニティーにおけるソフトウェア・フレームワークに対する共通のニーズに応えます。オープンで拡張性の高いモジュール型フレームワークである Lava により、研究者やアプリケーション開発者は互いの進捗に基づきながら、成果を共通のツール、メソッド、ライブラリーに集約できます。Lavaは、従来のプロセッサーとニューロモーフィック・プロセッサーにわたる異種混在のアーキテクチャー上でシームレスに動作し、AI、ニューロモーフィック、ロボティクスのさまざまなフレームワークでクロスプラットフォームの実行と相互運用性を実現します。これにより開発者は、専用のニューロモーフィック・ハードウェアを利用することなく、ニューロモーフィック・アプリケーションを構築できるほか、このアプリケーションを他のプラットフォーム上でも動作するよう移植できるなど、Lavaのコードベースにも貢献できます。
ロスアラモス国立研究所 研究者のゲルト J. クンデ(Gerd J. Kunde)博士は「ロスアラモス国立研究所の研究員は、学習プロセスをオンチップで実装するだけでなく、Loihi ニューロモーフィック・プラットフォームを使用して量子コンピューティングとニューロモーフィック・コンピューティング間でトレードオフがないかを調べてきました。この研究により、スパイキング・ニューラル・ネットワークと量子アニーリング法には、難しい最適化問題の解決に向けた素晴らしい等価性が存在することが分かりました。また、ニューラル・ネットワークの学習に使用される基盤のビルディング・ブロックである誤差逆伝播アルゴリズムは、従来、ニューロモーフィック・アーキテクチャーには実装不可能と考えられていましたが、Loihi上で効率的に実行できることも実証されました。この研究を第2世代 Loihi 2 チップを使用して継続できることを非常に嬉しく思っています」と述べました。
飛躍的な進展:Loihi 2 チップとLavaにより、研究者はリアルタイムの処理、問題解決、適応、学習向けの、ニューロンに着想を得た新しいアプリケーションの開発や特徴付けを行うことができます。主なポイントは次の通りです。
最適化の高速化と汎用化:Loihi 2のプログラマビリティーの向上により、エッジからデータセンター・システムまで網羅したリアルタイムの最適化、計画、意思決定など、難しい最適化問題を解決できる分野が広がります。
継続学習と連想学習に対する新たなアプローチ:Loihi 2は、ディープ・ラーニング(深層学習)の主力アルゴリズムである誤差逆伝播のさまざまなバリエーションなど、高度な学習メソッドにも対応できるよう強化されています。これにより、適応性やデータ効率性に優れた学習アルゴリズムの利用をオンラインの設定で動作する低消費電力のフォームファクターへと広げます。
ディープ・ラーニングによる学習が可能な新しいニューラル・ネットワーク: Loihi 2の完全プログラマブルなニューロンモデルと一般化されたスパイクメッセージにより、ディープ・ラーニングで学習させることのできる新しいニューラル・ネットワーク・モデルの領域が拡大します。初期段階の評価では、Loihi 2 上では精度を損なうことなく、Loihi 1上で動作する標準的なディープ・ネットワークに比べて推論当たりの演算数が 60分の 1 以下に削減されます*3。
実用ロボティクス・システム、従来のプロセッサー、新しいセンサーとのシームレスな統合:Loihi 2は、より高速、より優れた柔軟性、そしてより標準的な I/O インターフェイスを組み込み、Loihiの実用上の制約を回避しています。Loihi 2 チップでは、イーサネット・インターフェイス、幅広いイベントベースのビジョンセンサーとのグルーレスな統合、さらに Loihi 2 チップのより大きなメッシュ状ネットワークがサポートされます。
詳細はLoihi 2およびLavaの技術的な製品説明( https://download.intel.com/newsroom/2021/new-technologies/neuromorphic-computing-loihi-2-brief.pdf )をご覧ください。
インテル・ニューロモーフィック・リサーチ・コミュニティー(INRC):INRCには、現在150を超えるメンバーが参加しています。今年の初めには、新たにフォード、ジョージア工科大学、サウスウエスト・リサーチ・インスティテュート(SwRI)、テレダイン・フリアーなどの企業が加わりました。これらの新しいパートナーが加わった学術機関、政府機関、業界のパートナーから成る強力なコミュニティーは、インテルとともにニューロモーフィック・コンピューティングの商用利用に向けた進展に努めています。(Loihiテクノロジーについてのパートナーのコメント: https://download.intel.com/newsroom/2021/new-technologies/intel-labs-loihi-2-lava-quotes.pdf)
Accenture Labs チーフリサーチサイエンティスト 兼 マネージングディレクターであるエディ・リンゴサリ(Edy Liongosari)氏は「Loihi 2 チップと Lava APIのリリースは、ニューロモーフィック・コンピューティングにおける極めて大きな進歩です。この次世代ニューロモーフィック・アーキテクチャーは、人間の脳に着想を得たコンピューター・ビジョン・アルゴリズムに関する当社の研究にとって極めて重要です。これらのアルゴリズムは、未来のエクステンデッド・リアリティー(XR)ヘッドセットやインテリジェントなモバイル・ロボットに搭載される可能性もあります。この新しいチップが提供する機能により、超次元コンピューティングの効率が向上し、オンチップのより高度な学習が実現されます。また、Lava APIによって開発者はよりシンプルで、より合理化されたインターフェイスを使用してニューロモーフィック・システムを構築できます」と述べています。
商用化への道筋:ニューロモーフィック・コンピューティングを研究所での研究から商用へと、実現可能なテクノロジーに進展させるには、3方面からの取り組みが必要です。それは、アルゴリズムとアプリケーションの研究結果を反映したニューロモーフィック・ハードウェアへの継続的な改良、 開発者がさまざまなグループから出された最適なアルゴリズムのアイデアに対してベンチマーク、統合、改良を行うことのできる、共通のクロスプラットフォーム・ソフトウェア・フレームワークの開発、そして、 短期間でビジネス価値を創出できるような商用ユースケースの実現に向けた広範、かつ生産的なニューロモーフィック・エコシステムとなる業界、学術機関、政府機関にわたる緊密なコラボレーションです。
本日のインテルの発表はこれらのすべてを網羅し、コンピューティングを根底から見直し、インテリジェントな情報処理の革新に努めるニューロモーフィック研究者の拡大するエコシステムにとって新たなツールとなります。
今後の取り組み:インテルは現在、ニューロモーフィック・リサーチのクラウドを通じて、初期評価用の1チップシステム「Oheo Gulch」と、近日提供予定の8チップシステム「Kapoho Point」という2つのLoihi 2ベースのニューロモルフィック・システムをINRCのメンバーに提供しています。Lava ソフトウェア・フレームワークは、GitHub から無償でダウンロードできます。 Loihi 2とLavaに関するプレゼンテーションとチュートリアルは、10月の開発者イベント「Intel Innovation」で行われる予定です。
詳細情報:
Neuromorphic Computing – Next Generation of AI: https://www.intel.com/content/www/us/en/research/neuromorphic-computing.html
Neuromorphic Computing at Intel (プレスキット): https://www.intel.com/content/www/us/en/newsroom/resources/press-kits-neuromorphic-computing.html#gs.cocz3d
*1: Based on Lava simulations in September, 2021 of a nine-layer variant of the PilotNet DNN inference workload implemented as a sigma-delta neural network on Loihi 2 compared to the same network implemented with SNN rate-coding on Loihi. The Lava performance model for both chips is based on silicon characterization using the Nx SDK release 1.0.0 with an Intel Xeon E5-2699 v3 CPU @ 2.30 GHz, 32GB RAM, as the host running Ubuntu version 20.04.2. Loihi results use Nahuku-32 system ncl-ghrd-04. Loihi 2 results use Oheo Gulch system ncl-og-04. Results may vary.
*2: Based on the Loihi 2 core size of 0.21 mm2 supporting up to 8192 neurons compared to the Loihi core size of 0.41 mm2 supporting up to 1024 neurons.
*3: Based on measurements of the nine-layer PilotNet DNN inference workload referenced above, with a sigma-delta neural network implementation on Loihi 2 achieving a mean-squared error (MSE) of 0.035 with 323,815 synaptic operations compared to a rate-coded SNN on Loihi 1 achieving MSE of 0.0412 with 20,250,023 synaptic operations.