Efficient transfer learning method by selecting feature extraction processing
Project/Area Number |
17K00334
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Research Field |
Soft computing
|
Research Institution | Chiba University |
Principal Investigator |
YATA Noriko 千葉大学, 大学院工学研究院, 助教 (60528412)
|
Project Period (FY) |
2017-04-01 – 2022-03-31
|
Project Status |
Completed (Fiscal Year 2021)
|
Budget Amount *help |
¥4,550,000 (Direct Cost: ¥3,500,000、Indirect Cost: ¥1,050,000)
Fiscal Year 2019: ¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
Fiscal Year 2018: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
Fiscal Year 2017: ¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
|
Keywords | 畳み込みニューラルネットワーク / 深層学習 / プルーニング / 転移学習 / 強化学習 / 進化計算 |
Outline of Final Research Achievements |
This study proposes a new method to reduce the weight of the CNNs (Convolutional Neural Networks) model. The proposed method is a lightweight and accurate recognizer by automating the trial-and-error part of model construction and using network structure optimization and transition learning techniques for CNNs. We have proposed new methods to realize lightweight and accurate recognizers, such as filter pruning based on the importance of characteristics and model compression by selecting parameters that do not affect recognition accuracy using reinforcement learning.
|
Academic Significance and Societal Importance of the Research Achievements |
近年,畳み込みニューラルネットワーク(CNN)によってコンピュータによる物体認識技術は人間と同等の精度を実現できるようになった.CNNは特徴を抽出する役割をもつ畳み込み層を重ねることで高精度な画像認識を実現しているが,高精度なCNNを利用するために必要な計算量や記憶容量も増大しているため,計算資源が限られているデバイス上にCNNを組み込むことは困難であるという問題があり,近年では様々なエッジデバイスにAIを組み込みリアルタイムで動作させたいという需要が増えてきている.そこでこの問題を解決するためにCNNの性能を維持したまま計算量やパラメータを削減するモデルの圧縮を提案した.
|
Report
(6 results)
Research Products
(12 results)