• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2021 Fiscal Year Final Research Report

Efficient transfer learning method by selecting feature extraction processing

Research Project

  • PDF
Project/Area Number 17K00334
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Research Field Soft computing
Research InstitutionChiba University

Principal Investigator

YATA Noriko  千葉大学, 大学院工学研究院, 助教 (60528412)

Project Period (FY) 2017-04-01 – 2022-03-31
Keywords畳み込みニューラルネットワーク / 深層学習 / プルーニング
Outline of Final Research Achievements

This study proposes a new method to reduce the weight of the CNNs (Convolutional Neural Networks) model.
The proposed method is a lightweight and accurate recognizer by automating the trial-and-error part of model construction and using network structure optimization and transition learning techniques for CNNs.
We have proposed new methods to realize lightweight and accurate recognizers, such as filter pruning based on the importance of characteristics and model compression by selecting parameters that do not affect recognition accuracy using reinforcement learning.

Free Research Field

機械学習

Academic Significance and Societal Importance of the Research Achievements

近年,畳み込みニューラルネットワーク(CNN)によってコンピュータによる物体認識技術は人間と同等の精度を実現できるようになった.CNNは特徴を抽出する役割をもつ畳み込み層を重ねることで高精度な画像認識を実現しているが,高精度なCNNを利用するために必要な計算量や記憶容量も増大しているため,計算資源が限られているデバイス上にCNNを組み込むことは困難であるという問題があり,近年では様々なエッジデバイスにAIを組み込みリアルタイムで動作させたいという需要が増えてきている.そこでこの問題を解決するためにCNNの性能を維持したまま計算量やパラメータを削減するモデルの圧縮を提案した.

URL: 

Published: 2023-01-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi