• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2019 Fiscal Year Research-status Report

Development of New Generation Artificial Intelligence Based on Theoretical Analyses of Deep Learning

Research Project

Project/Area Number 18K19821
Research InstitutionNara Institute of Science and Technology

Principal Investigator

池田 和司  奈良先端科学技術大学院大学, 先端科学技術研究科, 教授 (10262552)

Project Period (FY) 2018-06-29 – 2021-03-31
Keywords深層学習 / ResNet / スキップコネクション / ドロップアウト / ストキャスティックデプス
Outline of Annual Research Achievements

本研究は,現在は試行錯誤が中心の人工知能(AI)研究の転換をめざすものである.AIの中心である深層学習の中心は,独自のビッグデータと豊富な計算機資源及び人的資源を持つ巨大情報産業が先導しているが,これに対抗してAI研究をリードするために深層学習の要素技術を理論解析し,次世代直方人工知能の開発を目指す.深層学習におけるコア技術は,確率降下法,プレトレーニング,ドロップアウト,ショートカット,の4つである.本研究ではこれまでの機械学習アルゴリズムとの類似性から,情報理論,情報幾何学,統計的漸近論などを利用する予定であったが,近年,汎化ギャップを評価する方法,フィッシャー情報行列の固有値を評価する方法などにより,深層学習の性能を理論的に解析可能であることがわかった.
そこで近年特に注目されているResNetを中心的に研究し,ResNetの特徴であるショートカット(スキップコ ネクション)の有無が汎化能力に与える影響を評価した.その結果,ショートカットは汎化ギャップの上限を小さくすること,また1層ではなく2層をショートカットすることで上限はさらに小さくなることが示された.さらに,ドロップアウトとその亜種であるストキャスティックデプスについて,フィッシャー情報行列の固有値を評価した.

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

初の研究対象の4項目のうち,二つについて詳細に理論解析することができ,国内外で研究発表をするとともに,その成果は論文として採択された.したがって計画通りと言える.

Strategy for Future Research Activity

確率降下法,プレトレーニング,ドロップアウト,ショートカット,の4つを対象としており,これまでにドロップアウトおよびショートカットについての解析が終了した.近年はプレトレーニングは不要であり,むしろランダム初期化が大きな影響を与えると言われているので,その理論的な解析を進める.

Causes of Carryover

今年度は理論研究が進んだためそちらに注力し,研究員を雇用して実施する研究を次年度に実施することにした結果,人件費を次年度に繰り越すことになった.

  • Research Products

    (12 results)

All 2020 2019

All Journal Article (3 results) (of which Peer Reviewed: 3 results,  Open Access: 2 results) Presentation (9 results) (of which Int'l Joint Research: 5 results,  Invited: 5 results)

  • [Journal Article] Theoretical analysis of skip connections and batch normalization from generalization and optimization perspectives2020

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Journal Title

      APSIPA Transactions on Signal and Information Processing

      Volume: 9 Pages: e9

    • DOI

      10.1017/ATSIP.2020.7

    • Peer Reviewed / Open Access
  • [Journal Article] Predicting the band gap of ZnO quantum dots via supervised machine learning models2020

    • Author(s)
      Paul Rossener Regonia, Ryosuke Tani, Atsushi Ishizumi, Hisao Yanagi, Kazushi Ikeda
    • Journal Title

      Optik: International Journal for Light and Electron Optics

      Volume: 207 Pages: 164469

    • DOI

      10.1016/j.ijleo.2020.164469

    • Peer Reviewed
  • [Journal Article] Data-efficient framework for personalized physiotherapy feedback2020

    • Author(s)
      Bryan Lao, Tomoya Tamei, Kazushi Ikeda
    • Journal Title

      Frontiers in Computer Science

      Volume: 2 Pages: 3

    • DOI

      10.3389/fcomp.2020.00003

    • Peer Reviewed / Open Access
  • [Presentation] Stochastic depthが勾配降下法の学習速度に与える影響の理論解析2019

    • Author(s)
      古庄康隆,池田和司
    • Organizer
      情報理論的学習理論ワークショップ
  • [Presentation] ResNetとbatch normalizationによるデータ分離能力の向上2019

    • Author(s)
      古庄康隆,池田和司
    • Organizer
      情報論的学習理論と機械学習研究会
  • [Presentation] 古典的なニューラルネットワークの問題点と加算型及び結合型ショートカットによる改善2019

    • Author(s)
      古庄康隆,池田和司
    • Organizer
      情報論的学習理論と機械学習研究会
  • [Presentation] Fixup initializationの理論解析: 学習の高速化とResNetの汎化能力向上2019

    • Author(s)
      古庄康隆,池田和司
    • Organizer
      情報論的学習理論と機械学習研究会
  • [Presentation] Overview: Theoretical properties of deep learning methods2019

    • Author(s)
      Kazushi Ikeda
    • Organizer
      APSIPA-ASC
    • Int'l Joint Research / Invited
  • [Presentation] ResNet and batch normalization improve data separability2019

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Organizer
      Asian Conference on Machine Learning
    • Int'l Joint Research / Invited
  • [Presentation] Generation and visualization of tennis swing motion by conditional variational RNN with hidden Markov model2019

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Organizer
      Asian Conference on Machine Learning: Trajectory, Activity, and Behaviour workshop
    • Int'l Joint Research / Invited
  • [Presentation] Theoretical analysis of the fixup initialization for fast convergence and high generalization ability2019

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Organizer
      International Conference on Machine Learning: Understanding and Improving Generalization in Deep Learning workshop
    • Int'l Joint Research / Invited
  • [Presentation] Additive or concatenating skip-connections improve data separability2019

    • Author(s)
      Yasutaka Furusho, Kazushi Ikeda
    • Organizer
      International Conference on Machine Learning: Understanding and Improving Generalization in Deep Learning workshop
    • Int'l Joint Research / Invited

URL: 

Published: 2021-01-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi