• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

ディープニューラルネットワークモデルの高速化および省メモリ化

研究課題

研究課題/領域番号 20J15177
研究種目

特別研究員奨励費

配分区分補助金
応募区分国内
審査区分 小区分60100:計算科学関連
研究機関和歌山大学

研究代表者

菅間 幸司  和歌山大学, システム工学部, 特別研究員(PD)

研究期間 (年度) 2020-04-24 – 2022-03-31
研究課題ステータス 完了 (2021年度)
配分額 *注記
1,700千円 (直接経費: 1,700千円)
2021年度: 800千円 (直接経費: 800千円)
2020年度: 900千円 (直接経費: 900千円)
キーワードDNNモデル圧縮 / プルーニング / NU / REAP / PRO / SRN
研究開始時の研究の概要

畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)はコンピュータビジョンの諸分野で活用されている数理モデルである。CNNモデルは膨大な数のパラメータを持ち、推論時には大規模な計算がなされるため、組み込み系で使うことができない。本研究では、訓練済みのCNNモデルの性能を維持しつつパラメータを削減し、モデルサイズと計算量を落とす手法を開発することを目指す。

研究実績の概要

・前年度は深層学習モデルを各層での誤差が最小化されるように圧縮するための手法である,Reconstruction Error Aware Pruning(REAP)を提案した.当該年度は,これをさらに効果的に活用するために,モデルの最終層への影響を評価して各層の圧縮率を最適化するための手法であるPruning Ratio Optimizer(PRO)を,前年度から引き続き開発した.成果は論文誌へ発表済みである.
・また,枝分かれ構造を持つResNetという深層学習モデルを効率的に圧縮するために,等価な直列構造に変換する手法の開発を,前年度に引き続き開発した.ResNetでは,枝分かれのある層において圧縮を行うことができないため,枝分かれがない層のみを集中的に圧縮する必要があった.これを直列化すると,モデルサイズは一旦は大きくなるが,全ての層でバランスよく圧縮を行えるようになる.そのため,結果的にはモデルの精度をより良く保ちつつ,そのサイズを小さくできるというものである.現在は,この手法により直列化されたモデルを上記のPROと組み合わせると,結果が不安定になるという問題が生じており,その原因究明と改善に取り組んでいる.
・提案手法を使う際には,深層学習モデルのどの層を圧縮の対象とするかを指定する必要がある.その手間を省くために,モデルを入力として与えると圧縮対象となる層を自動的に判別するプログラムを開発した.現在,上記の提案手法群と併せ,対外発表の準備を進めている.

現在までの達成度 (段落)

令和3年度が最終年度であるため、記入しない。

今後の研究の推進方策

令和3年度が最終年度であるため、記入しない。

報告書

(2件)
  • 2021 実績報告書
  • 2020 実績報告書
  • 研究成果

    (6件)

すべて 2022 2021 2020

すべて 雑誌論文 (3件) (うち査読あり 3件、 オープンアクセス 3件) 学会発表 (3件)

  • [雑誌論文] Pruning Ratio Optimization with Layer-Wise Pruning Method for Accelerating Convolutional Neural Networks2022

    • 著者名/発表者名
      KAMMA Koji、INOUE Sarimu、WADA Toshikazu
    • 雑誌名

      IEICE Transactions on Information and Systems

      巻: E105.D 号: 1 ページ: 161-169

    • DOI

      10.1587/transinf.2021EDP7096

    • NAID

      130008138814

    • ISSN
      0916-8532, 1745-1361
    • 年月日
      2022-01-01
    • 関連する報告書
      2021 実績報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] REAP: A Method for Pruning Convolutional Neural Networks with Performance Preservation2021

    • 著者名/発表者名
      Koji Kamma, Toshikazu Wada
    • 雑誌名

      IEICE Transactions on Information and Systems

      巻: E104.D 号: 1 ページ: 194-202

    • DOI

      10.1587/transinf.2020EDP7049

    • NAID

      130007965065

    • ISSN
      0916-8532, 1745-1361
    • 年月日
      2021-01-01
    • 関連する報告書
      2020 実績報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Neural Behavior-Based Approach for Neural Network Pruning2020

    • 著者名/発表者名
      KAMMA Koji、ISODA Yuki、INOUE Sarimu、WADA Toshikazu
    • 雑誌名

      IEICE Transactions on Information and Systems

      巻: E103.D 号: 5 ページ: 1135-1143

    • DOI

      10.1587/transinf.2019EDP7177

    • NAID

      130007839104

    • ISSN
      0916-8532, 1745-1361
    • 年月日
      2020-05-01
    • 関連する報告書
      2020 実績報告書
    • 査読あり / オープンアクセス
  • [学会発表] Behavior-based DNN Compression: Pruning and Facilitation Methods2021

    • 著者名/発表者名
      Koji Kamma, Toshikazu Wada
    • 学会等名
      2020-CVIM-226
    • 関連する報告書
      2021 実績報告書
  • [学会発表] Biorthogonal System Based Channel Selection Algorithm for Neural Network Pruning2020

    • 著者名/発表者名
      Koji Kamma, Toshikazu Wada
    • 学会等名
      PRMU
    • 関連する報告書
      2020 実績報告書
  • [学会発表] Serialized Residual Network2020

    • 著者名/発表者名
      Koji Kamma, Toshikazu Wada
    • 学会等名
      MIRU
    • 関連する報告書
      2020 実績報告書

URL: 

公開日: 2020-07-07   更新日: 2024-03-26  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi