このページの本文へ

ロードマップでわかる!当世プロセッサー事情 第677回

アナログ回路でデジタルより優れた結果を出せるAspinityのAnalogML AIプロセッサーの昨今

2022年07月25日 12時00分更新

文● 大原雄介(http://www.yusuke-ohara.com/) 編集●北村/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

アナログ信号のままでニューラルネットワークを通す
AnalogML

 さて今回のAnalogMLであるが、RAMPを使ってフィルタリングだけでなくAIの処理まで行なってしまおう、というものである。

2016年のRAMP 1では、ここで言えばAnalog I/O→Sensor Interface→Signal Decompositionを経て、その先に直接Mided-Signal→Logic→Digital I/Oとなっていた。ここにFunction SynthesisとMulti-Layer Neural Networkを加えたのがAnalogMLというわけだ

 といってもRAMPの構造をそのまま引き継いでいるのはCABの部分のみで、その先は今回初実装という形になる。

RAMP1に比べると利用できるフィルター回路などの幅も広がったものと思われる(例えばNN Weightsは確か2016年にはなかったはずだ)

 もともと2016年のRAMP 1の時点で、センサーからの入力をSensor Interface/Signal Decompositionの部分で(=ADCを通す前に)ある程度フィルタリングを行ない、不要なデータをその先に流さないことで効率化を図るという実装はしていた。今回はそれに加え、アナログ信号のままでニューラルネットワークを通すことで、さらにデータを減らせるようになったという仕組みである。

 ここでコアになるのがConfigurable Analog Blockで、先に書いたようにNANDフラッシュのセル(ここではAnalog NVMとされている)を利用してアナログのフィルター回路を簡単に構築できるようになっており、まずここで不要なデータを削減。さらにその先でニューラルネットワークを利用してさらにデータ量を減らせるわけだ。

 なぜデータ量を減らせるか? といえば、665回のIntel GNAと同じである。Intel GNAと異なりこちらは音声や振動、接触(タッチセンサーの検知)などであるが、ここでは音声を例にとってみたい。

Signal ConditioningやPre-Processingはオプション扱いで、これはAnalogMLには含まれない。これは一般的なオーディオ用のAFE(Analog Front End)の話で、おそらくLPF(Low Pass Filter)などはAnalogMLでも実装は可能であろう

 音声であればまず外界音を常時マイクで拾うことになる。ここは常時Onで、オプション扱いのSignal ConditioningやPre-Processingもやはり常時動くことになる。そこからまずBandpass FilterとEnvelope Detector Arrayを通すことで、ノイズ(風切音や周囲の振動音など)を一気に減らす。

 この段階でかなり扱うデータ量(音声データ)は減っているので、常にニューラルネットワークが動くわけではない(まずこれで1段目の省電力化が可能になる)。ただ、例えば普通の会話と赤ちゃんの泣き声や動物の鳴き声までこの段階で区別できるか? というとそれは難しい。

 そこでその先でニューラルネットワークを通すことで、人間の音声とその他を区分けするとか、突発音(例えばガラスが割られたりドアの開閉などなにかしらの破壊音)を検知することが可能になる。

 スマートスピーカーの類なら人間の音声と判断された時だけ、セキュリティーセンサーなら突発音が発生した時だけ、それぞれマイコンを立ち上げてその先の処理ができる。これにより、記事冒頭の画像に出てくるような大幅な省電力化が可能になる、というのがAspinityの説明である。

カテゴリートップへ

この連載の記事

注目ニュース

ASCII倶楽部

プレミアムPC試用レポート

ピックアップ

ASCII.jp RSS2.0 配信中

ASCII.jpメール デジタルMac/iPodマガジン