• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 課題ページに戻る

2021 年度 研究成果報告書

Neuro-Coding/Unificationを用いたCNNのコンパクト化

研究課題

  • PDF
研究課題/領域番号 19K12020
研究種目

基盤研究(C)

配分区分基金
応募区分一般
審査区分 小区分61010:知覚情報処理関連
研究機関和歌山大学

研究代表者

和田 俊和  和歌山大学, システム工学部, 教授 (00231035)

研究期間 (年度) 2019-04-01 – 2022-03-31
キーワードNeuro Coding/Unification / CNN pruning / REAP / Serialized ResNet / Pruning Ratio Optimizer
研究成果の概要

本研究では,CNNの機能をできるだけ低下させずに,計算量を削減するCNNの圧縮問題を取り扱った.当初は、学習データに対して各チャネルがどのように反応するのかをベクトルで表現し、線形従属の関係にあるチャネルのうち一方を削除し、残されたチャネルで削除したチャネルの働きを肩代わりさせる手法を提案した.その後,削除したチャネルの働きを,残されたチャネルにかける全ての重みを変更する「再構築」によって,次層の誤差を最小化するREAPという方法に拡張した.さらに,ResNetを直列化して圧縮するSRN,各層ごとの際的な圧縮率の配分を求めるPROという方法を提案した.

自由記述の分野

パターン認識,コンピュータ・ビジョン

研究成果の学術的意義や社会的意義

提案したREAPを普通に実装すると,チャネルを削除して最小二乗法による再構築をする,という操作を全チャネルに対して適用して,再構築後の誤差が最小になるチャネルを削除するという計算になる.本研究では,この計算を双直交基底を用いてワンショットで解けるようにしたことが学術的に価値があると考えている.また,広く用いられているResNetに含まれる分岐のある層は削除することができなかったが,この分岐を無くすことによって,広い範囲のCNNにREAPの適用が行えるようになった.さらに,REAPでどの層をどれだけ圧縮すれば最適かを求めるPROによってCNN全体の最適な圧縮が可能になった.

URL: 

公開日: 2023-01-30  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi