• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

ディープニューラルネットワークの特性解析と最適設計

Research Project

Project/Area Number 18J15055
Research Category

Grant-in-Aid for JSPS Fellows

Allocation TypeSingle-year Grants
Section国内
Research Field Intelligent informatics
Research InstitutionNara Institute of Science and Technology

Principal Investigator

古庄 泰隆  奈良先端科学技術大学院大学, 情報科学研究科, 特別研究員(DC2)

Project Period (FY) 2018-04-25 – 2020-03-31
Project Status Completed (Fiscal Year 2019)
Budget Amount *help
¥1,900,000 (Direct Cost: ¥1,900,000)
Fiscal Year 2019: ¥900,000 (Direct Cost: ¥900,000)
Fiscal Year 2018: ¥1,000,000 (Direct Cost: ¥1,000,000)
Keywordsニューラルネットワーク / ResNet / バッチ正規化 / ディープニューラルネットワーク
Outline of Annual Research Achievements

ディープニューラルネットワーク(DNN)は物体認識から囲碁のプレイングまで幅広い分野で目覚ましい成果を上げており現在もっとも注目されている分野である。近年のDNNの成功はそのアーキテクチャと最適化アルゴリズムに起因するが、その理論的な性質は十分にあきらかでなかった。本研究ではこのDNNアーキテクチャや最適化アルゴリズムがその性能に及ぼす影響を解析し、適切なアーキテクチャや最適化アルゴリズムのハイパーパラメータを調査した。
まず近年提案されたアーキテクチャであるResNetが従来のアーキテクチャである多層パーセプトロン(MLP)よりも高い汎化性能を持つことを示した。MLPは複数の層を直列に繋げたアーキテクチャで、与えられた入力はそれらの層を経て変換され出力される。一方でResNetは各層間にショートカットを導入し層をスキップするアーキテクチャを持つ。これにより訓練データの変化に出力が頑強になり高い汎化性能を達成出来る。さらにResNetのショートカットは1層だけスキップするよりも2層スキップするほうが高い汎化性能を持つことを示した。
次にResNetを学習する際はバッチ正規化により勾配降下法で高い学習率が使えることを示した。具体的には学習が発散しないようにResNetは層の数に対して学習率を指数的に小さくする必要があるが、バッチ正規化により指数的な減少を多項式に抑えることができる。この結果高い学習率が使え学習が高速化する。

Research Progress Status

令和元年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和元年度が最終年度であるため、記入しない。

Report

(2 results)
  • 2019 Annual Research Report
  • 2018 Annual Research Report
  • Research Products

    (15 results)

All 2020 2019 2018 Other

All Int'l Joint Research (1 results) Journal Article (1 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (13 results) (of which Int'l Joint Research: 7 results)

  • [Int'l Joint Research] シドニー大学(オーストラリア)

    • Related Report
      2018 Annual Research Report
  • [Journal Article] Theoretical analysis of skip connections and batch normalization from generalization and optimization perspectives2020

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Journal Title

      APSIPA Transactions on Signal and Information Processing

      Volume: 9 Issue: 1

    • DOI

      10.1017/atsip.2020.7

    • Related Report
      2019 Annual Research Report
    • Peer Reviewed / Open Access
  • [Presentation] ResNet and Batch-normalization Improve Data Separability2019

    • Author(s)
      Yasutaka Furusho and Kazushi Ikeda
    • Organizer
      Asian Conference on Machine Learning
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Generation and Visualization of Tennis Swing Motion by Conditional Variational RNN with Hidden Markov Model2019

    • Author(s)
      Yasutaka Furusho and Kazushi Ikeda
    • Organizer
      Asian Conference on Machine Learning: Trajectory, Activiy, and Behaviour workshop
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Theoretical Analysis of the Fixup Initialization for Fast Convergence and High Generalization Ability2019

    • Author(s)
      Yasutaka Furusho and Kazushi Ikeda
    • Organizer
      International Conference on Machine Learning: Generalization in Deep Learning workshop
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Additive or Concatenating Skip-connection Improve Data Separability2019

    • Author(s)
      Yasutaka Furusho and Kazushi Ikeda
    • Organizer
      International Conference on Machine Learning: Generalization in Deep Learning workshop
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Effects of Skip-connection in ResNet and Batch-normalization on Fisher Information Matrix2019

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Organizer
      INNS Big Data and Deep Learning
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Skipping two layers in ResNet makes the generalization gap smaller than skipping one or no layer2019

    • Author(s)
      Yasutaka Furusho, Tongliang Liu, Kazushi Ikeda
    • Organizer
      INNS Big Data and Deep Learning
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Batch-normalizationがResNetのフィッシャー情報行列に与える影響の理論解析2019

    • Author(s)
      古庄 泰隆, 池田和司
    • Organizer
      電子情報通信学会 IBISML研究会
    • Related Report
      2018 Annual Research Report
  • [Presentation] ニューラルネットワークの隠れ層のユニット数とReLU活性化が汎化能力に与える影響の理論解析2019

    • Author(s)
      古庄 泰隆, 池田和司
    • Organizer
      電子情報通信学会IBISML研究会
    • Related Report
      2018 Annual Research Report
  • [Presentation] Non-asymptotic analysis of Fisher information matrices of Multi-layer perceptron, ResNet, and Batch-normalization2018

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Organizer
      INCF J-Node International Workshop
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Effects of skip-connection in ResNet and Batch-normalization on Fisher Information Matrix2018

    • Author(s)
      古庄 泰隆, 池田和司
    • Organizer
      脳と心のメカニズム冬のワークショップ
    • Related Report
      2018 Annual Research Report
  • [Presentation] Stable Embedding of Wide Neural Networks with ReLU Activation and its Generalization Ability2018

    • Author(s)
      古庄 泰隆, 池田和司
    • Organizer
      脳と心のメカニズム冬のワークショップ
    • Related Report
      2018 Annual Research Report
  • [Presentation] ニューラルネットワークの埋め込み安定性と汎化能力の関係2018

    • Author(s)
      古庄 泰隆, 池田和司
    • Organizer
      計測自動制御学会 コンピュテーショナル・インテリジェンス研究会
    • Related Report
      2018 Annual Research Report
  • [Presentation] ResNetのショートカットが学習速度と汎化ギャップに及ぼす影響の理論解析2018

    • Author(s)
      古庄 泰隆, Tongliang Liu, 池田和司
    • Organizer
      電子情報通信学会 IBISML ワークショップ
    • Related Report
      2018 Annual Research Report

URL: 

Published: 2018-05-01   Modified: 2024-03-26  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi