このページの本文へ

学習時の計算量はそのままに認識精度にて20%の性能向上

NEC、認識精度向上を実現するディープラーニング自動最適化技術

2017年12月12日 14時30分更新

文● 行正和義 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

ニューラルネットワーク各層における正則化自動設定イメージ

 NECは12月12日、ディープラーニングにおいて認識精度の向上を容易に実現する自動最適化技術を開発したと発表した。

 従来のディープラーニングはニューラルネットワークの構造に応じた学習の調整が困難なため、ネットワーク全体で最適な学習が行なえず、本来の認識性能を十分に引き出すことができないことがあった。新たな技術はネットワークの学習の進み具合を構造に応じて自動的に最適化する。

 ニューラルネットワークの構造を基に学習の進み具合を層ごとに予測、各層の進み具合に適した正則化を層ごとに自動設定。全体での学習の進み具合が最適化され、層ごとの学習の進みすぎや遅れといった課題を解決。

学習データの数に対する認識エラー率の推移

 この技術を用いた手書き数字データの認識実験において、認識エラーが20%程度削減するなど、認識精度の改善を確認したという。また、この最適化は学習を行なう前に1度実施されるものなので、学習に際しての計算量などは従来と同等で済むとしている。

■関連サイト

カテゴリートップへ

灯油タンクで残量検知を実現!北海道の生活を守るIoTとは【熱量IoT】#3

動画一覧はこちら!