• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

ディープニューラルネットワークの特性解析と最適設計

研究課題

研究課題/領域番号 18J15055
研究種目

特別研究員奨励費

配分区分補助金
応募区分国内
研究分野 知能情報学
研究機関奈良先端科学技術大学院大学

研究代表者

古庄 泰隆  奈良先端科学技術大学院大学, 情報科学研究科, 特別研究員(DC2)

研究期間 (年度) 2018-04-25 – 2020-03-31
研究課題ステータス 完了 (2019年度)
配分額 *注記
1,900千円 (直接経費: 1,900千円)
2019年度: 900千円 (直接経費: 900千円)
2018年度: 1,000千円 (直接経費: 1,000千円)
キーワードニューラルネットワーク / ResNet / バッチ正規化 / ディープニューラルネットワーク
研究実績の概要

ディープニューラルネットワーク(DNN)は物体認識から囲碁のプレイングまで幅広い分野で目覚ましい成果を上げており現在もっとも注目されている分野である。近年のDNNの成功はそのアーキテクチャと最適化アルゴリズムに起因するが、その理論的な性質は十分にあきらかでなかった。本研究ではこのDNNアーキテクチャや最適化アルゴリズムがその性能に及ぼす影響を解析し、適切なアーキテクチャや最適化アルゴリズムのハイパーパラメータを調査した。
まず近年提案されたアーキテクチャであるResNetが従来のアーキテクチャである多層パーセプトロン(MLP)よりも高い汎化性能を持つことを示した。MLPは複数の層を直列に繋げたアーキテクチャで、与えられた入力はそれらの層を経て変換され出力される。一方でResNetは各層間にショートカットを導入し層をスキップするアーキテクチャを持つ。これにより訓練データの変化に出力が頑強になり高い汎化性能を達成出来る。さらにResNetのショートカットは1層だけスキップするよりも2層スキップするほうが高い汎化性能を持つことを示した。
次にResNetを学習する際はバッチ正規化により勾配降下法で高い学習率が使えることを示した。具体的には学習が発散しないようにResNetは層の数に対して学習率を指数的に小さくする必要があるが、バッチ正規化により指数的な減少を多項式に抑えることができる。この結果高い学習率が使え学習が高速化する。

現在までの達成度 (段落)

令和元年度が最終年度であるため、記入しない。

今後の研究の推進方策

令和元年度が最終年度であるため、記入しない。

報告書

(2件)
  • 2019 実績報告書
  • 2018 実績報告書
  • 研究成果

    (15件)

すべて 2020 2019 2018 その他

すべて 国際共同研究 (1件) 雑誌論文 (1件) (うち査読あり 1件、 オープンアクセス 1件) 学会発表 (13件) (うち国際学会 7件)

  • [国際共同研究] シドニー大学(オーストラリア)

    • 関連する報告書
      2018 実績報告書
  • [雑誌論文] Theoretical analysis of skip connections and batch normalization from generalization and optimization perspectives2020

    • 著者名/発表者名
      Yasutaka Furusho, Kazushi Ikeda
    • 雑誌名

      APSIPA Transactions on Signal and Information Processing

      巻: 9 号: 1

    • DOI

      10.1017/atsip.2020.7

    • 関連する報告書
      2019 実績報告書
    • 査読あり / オープンアクセス
  • [学会発表] ResNet and Batch-normalization Improve Data Separability2019

    • 著者名/発表者名
      Yasutaka Furusho and Kazushi Ikeda
    • 学会等名
      Asian Conference on Machine Learning
    • 関連する報告書
      2019 実績報告書
    • 国際学会
  • [学会発表] Generation and Visualization of Tennis Swing Motion by Conditional Variational RNN with Hidden Markov Model2019

    • 著者名/発表者名
      Yasutaka Furusho and Kazushi Ikeda
    • 学会等名
      Asian Conference on Machine Learning: Trajectory, Activiy, and Behaviour workshop
    • 関連する報告書
      2019 実績報告書
    • 国際学会
  • [学会発表] Theoretical Analysis of the Fixup Initialization for Fast Convergence and High Generalization Ability2019

    • 著者名/発表者名
      Yasutaka Furusho and Kazushi Ikeda
    • 学会等名
      International Conference on Machine Learning: Generalization in Deep Learning workshop
    • 関連する報告書
      2019 実績報告書
    • 国際学会
  • [学会発表] Additive or Concatenating Skip-connection Improve Data Separability2019

    • 著者名/発表者名
      Yasutaka Furusho and Kazushi Ikeda
    • 学会等名
      International Conference on Machine Learning: Generalization in Deep Learning workshop
    • 関連する報告書
      2019 実績報告書
    • 国際学会
  • [学会発表] Effects of Skip-connection in ResNet and Batch-normalization on Fisher Information Matrix2019

    • 著者名/発表者名
      Yasutaka Furusho, Kazushi Ikeda
    • 学会等名
      INNS Big Data and Deep Learning
    • 関連する報告書
      2018 実績報告書
    • 国際学会
  • [学会発表] Skipping two layers in ResNet makes the generalization gap smaller than skipping one or no layer2019

    • 著者名/発表者名
      Yasutaka Furusho, Tongliang Liu, Kazushi Ikeda
    • 学会等名
      INNS Big Data and Deep Learning
    • 関連する報告書
      2018 実績報告書
    • 国際学会
  • [学会発表] Batch-normalizationがResNetのフィッシャー情報行列に与える影響の理論解析2019

    • 著者名/発表者名
      古庄 泰隆, 池田和司
    • 学会等名
      電子情報通信学会 IBISML研究会
    • 関連する報告書
      2018 実績報告書
  • [学会発表] ニューラルネットワークの隠れ層のユニット数とReLU活性化が汎化能力に与える影響の理論解析2019

    • 著者名/発表者名
      古庄 泰隆, 池田和司
    • 学会等名
      電子情報通信学会IBISML研究会
    • 関連する報告書
      2018 実績報告書
  • [学会発表] Non-asymptotic analysis of Fisher information matrices of Multi-layer perceptron, ResNet, and Batch-normalization2018

    • 著者名/発表者名
      Yasutaka Furusho, Kazushi Ikeda
    • 学会等名
      INCF J-Node International Workshop
    • 関連する報告書
      2018 実績報告書
    • 国際学会
  • [学会発表] Effects of skip-connection in ResNet and Batch-normalization on Fisher Information Matrix2018

    • 著者名/発表者名
      古庄 泰隆, 池田和司
    • 学会等名
      脳と心のメカニズム冬のワークショップ
    • 関連する報告書
      2018 実績報告書
  • [学会発表] Stable Embedding of Wide Neural Networks with ReLU Activation and its Generalization Ability2018

    • 著者名/発表者名
      古庄 泰隆, 池田和司
    • 学会等名
      脳と心のメカニズム冬のワークショップ
    • 関連する報告書
      2018 実績報告書
  • [学会発表] ニューラルネットワークの埋め込み安定性と汎化能力の関係2018

    • 著者名/発表者名
      古庄 泰隆, 池田和司
    • 学会等名
      計測自動制御学会 コンピュテーショナル・インテリジェンス研究会
    • 関連する報告書
      2018 実績報告書
  • [学会発表] ResNetのショートカットが学習速度と汎化ギャップに及ぼす影響の理論解析2018

    • 著者名/発表者名
      古庄 泰隆, Tongliang Liu, 池田和司
    • 学会等名
      電子情報通信学会 IBISML ワークショップ
    • 関連する報告書
      2018 実績報告書

URL: 

公開日: 2018-05-01   更新日: 2024-03-26  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi