このページの本文へ

隠れニューラルネットを実装したAIチップ、東工大が開発

2022年02月27日 07時21分更新

文● MIT Technology Review Event Producer

  • この記事をはてなブックマークに追加
  • 本文印刷

東京工業大学の研究チームは、深層ニューラル・ネットワーク(Deep Neural Network:DNN)理論の一種である「隠れニューラル・ネットワーク(Hidden Neural Network:HNN)」理論を実装したアクセラレーター・チップを開発した。

東京工業大学の研究チームは、深層ニューラル・ネットワーク(Deep Neural Network:DNN)理論の一種である「隠れニューラル・ネットワーク(Hidden Neural Network:HNN)」理論を実装したアクセラレーター・チップを開発した。 自動運転やロボットなどで使われる画像認識では、カメラで撮影した画像・映像をその場で推論・判断するため、消費電力の増大が課題となっている。深層学習ではDNN の構造が複雑化することで計算量が増大し、特にDNNモデルの「重み」といった計算パラメーターをメモリーから読み込む際に電力を消費する。一方、HNNでは重みを学習せず、乱数の初期値のまま固定するため、メモリーからの大量のデータ転送が発生せず、電力消費量を節約できる。HNNでは演算時に「スーパーマスク」と固定の乱数の論理積を取り、このスーパーマスクのデータはメモリから転送する。スーパーマスクのデータは圧縮が可能なため、メモリーからのデータ転送量と電力消費量を節約できる。 研究チームは、TSMCの40nmプロセスでプロトタイプ・チップを試作。寸法は3ミリメートル四方と小さいが4096個の演算器を並列動作させることが可能で、演算効率は世界トップレベルの34.8 TOPS/Wを記録した。研究成果は2月20日開催の「ISSCC2022(国際固体素子回路会議)」で発表された。

(笹田)

カテゴリートップへ

最新記事
最新記事

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ