畳み込みニューラルネットワーク(CNN)によって高精度な物体認識が実現した背景には,学習データ量の増加や強力な計算資源が利用可能になったことが密接に関係しており,高精度なCNNに必要な計算量や記憶容量も増大している.一方,スマートフォンやIoT端末でもCNNを利用したいといった需要が増加している.しかし,これらのエッジ端末は計算資源や記憶域,消費電力が限られており,低コストで高性能なCNNを利用可能な技術の実現のために,プルーニングなどのCNNのモデル軽量化の研究が重要になっている. 本研究では,CNNのモデル軽量化手法の一つである,特性重要度に基づくフィルタプルーニングにおいて,事前にネットワークに対してフィルタ置換の処理を導入する手法を提案し,従来手法における問題点であったプルーニングに伴う精度劣化を,プルーニングを行う前に重要度の高いフィルタを複製することで改善した. ネットワーク中のフィルタ置換には,ネットワークのプルーニングに対する頑強性,すなわち表現能力の冗長性を高める効果があることが推察される.提案手法の評価実験では,学習済みネットワークにそのままプルーニングを行ったHRankの精度劣化が2.27ポイントであるのに対し,フィルタ置換を導入してからプルーニングを行った提案手法の精度劣化は,重要度が上位のフィルタを2倍に複製する方法では1.49ポイント,置換対象のフィルタを全て重要度が最大のフィルタで置き換える方法では1.42ポイントと,プルーニング後のネットワークの認識精度は高い数値を示し,いずれの置換方法でも精度劣化を抑えられたことを示した.この結果は,同一のフィルタを複数枚置換しても,再学習の結果,異なる表現能力を獲得できる可能性を示している.重要度が高い順にフィルタを必要十分な枚数ずつ置換すれば,ネットワークの冗長性をさらに高めることができると考えられる.
|