• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Exactly Solvable Models in Deep Learning

Research Project

Project/Area Number 22KJ0949
Project/Area Number (Other) 22J14402 (2022)
Research Category

Grant-in-Aid for JSPS Fellows

Allocation TypeMulti-year Fund (2023)
Single-year Grants (2022)
Section国内
Review Section Basic Section 13010:Mathematical physics and fundamental theory of condensed matter physics-related
Research InstitutionThe University of Tokyo

Principal Investigator

LIU Ziyin  東京大学, 理学系研究科, 特別研究員(PD)

Project Period (FY) 2023-03-08 – 2024-03-31
Project Status Completed (Fiscal Year 2023)
Budget Amount *help
¥1,700,000 (Direct Cost: ¥1,700,000)
Fiscal Year 2023: ¥800,000 (Direct Cost: ¥800,000)
Fiscal Year 2022: ¥900,000 (Direct Cost: ¥900,000)
Keywordsdeep learning / neural network / sparsity / symmetry / phase transition / Deep learning theory / Symmetry breaking / Statistical physics / Self-supervised learning / Bayesian learning / Optimization
Outline of Research at the Start

この研究は、深層学習における理論的な理解を深めることを目的としています。深層学習は、現代の機械学習において非常に重要な役割を果たしており、その成功は多大な理論的努力によって支えられています。本研究では、深層学習における最適化アルゴリズムの理論的側面に注目し、その理解を深めることを目指します。特に、スパース性、確率的勾配降下法、自己教示学習、深層学習の位相転移など、現在注目されている問題に対して、より洗練された理論を提供することを目指します。また、この研究は、深層学習をさらに発展させる上での基盤となり、現代の機械学習の進歩に貢献することが期待されています。

Outline of Annual Research Achievements

昨年、私は深層ニューラルネットワークにおける零次、一次、二次の相転移に関する研究で、共著者としてMasahito Ueda氏と共に「Physical Review Research」誌に論文「Zeroth, first, and second-order phase transitions in deep neural networks」を発表しました。この研究では、深層学習モデルの訓練過程における相転移の理論的側面を探求し、それがネットワークの学習能力とどのように関連しているかを明らかにしました。また、自己教師あり学習の段階的性質に関する研究で、「ICML 2023」にて「On the stepwise nature of self-supervised learning」という論文を発表しました。この研究では、自己教師あり学習が段階的に進行する本質について探求し、新たな学習パラダイムへの理解を深めました。
「ICML 2023」においては、Zihao Wang氏と共同で「Sparsity by Redundancy: Solving L1 with SGD」という研究も発表しました。ここでは、SGDを用いてL1正則化問題を解決することにより、スパース性を冗長性によって達成する方法について論じました。最後に、「ICLR 2023」で、「What shapes the loss landscape of self-supervised learning?」という論文を、Ekdeep Singh Lubana氏、Masahito Ueda氏、Hidenori Tanaka氏と共に発表しました。この研究では、自己教師あり学習の損失ランドスケープを形成する要因について深い洞察を提供し、学習過程の最適化に役立つ知見を提供しました。

Report

(2 results)
  • 2023 Annual Research Report
  • 2022 Annual Research Report
  • Research Products

    (12 results)

All 2023 2022 Other

All Int'l Joint Research (3 results) Journal Article (6 results) (of which Int'l Joint Research: 4 results,  Peer Reviewed: 6 results,  Open Access: 5 results) Presentation (3 results) (of which Int'l Joint Research: 3 results)

  • [Int'l Joint Research] Harvard University/NTT Research(米国)

    • Related Report
      2022 Annual Research Report
  • [Int'l Joint Research] Ecole Normale Suprieure(フランス)

    • Related Report
      2022 Annual Research Report
  • [Int'l Joint Research] HKUST(中国)

    • Related Report
      2022 Annual Research Report
  • [Journal Article] Zeroth, first, and second-order phase transitions in deep neural networks2023

    • Author(s)
      Ziyin Liu、Ueda Masahito
    • Journal Title

      Physical Review Research

      Volume: 5 Issue: 4

    • DOI

      10.1103/physrevresearch.5.043243

    • Related Report
      2023 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Exact solutions of a deep linear network2023

    • Author(s)
      Ziyin Liu、Li Botao、Meng Xiangming
    • Journal Title

      Journal of Statistical Mechanics: Theory and Experiment

      Volume: 2023 Issue: 11 Pages: 114006-114006

    • DOI

      10.1088/1742-5468/ad01b3

    • Related Report
      2023 Annual Research Report
    • Peer Reviewed / Int'l Joint Research
  • [Journal Article] What shapes the loss landscape of self-supervised learning?2023

    • Author(s)
      Liu Ziyin, Ekdeep Singh Lubana, Masahito Ueda, Hidenori Tanaka
    • Journal Title

      Proceedings of the International Conference on Learning Representations

      Volume: -

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Universal Thermodynamic Uncertainty Relation in Non-Equilibrium Dynamics2023

    • Author(s)
      Liu Ziyin, Masahito Ueda
    • Journal Title

      Physical Review Research

      Volume: 5 Issue: 1

    • DOI

      10.1103/physrevresearch.5.013039

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Exact Solutions of a Deep Linear Network2022

    • Author(s)
      Liu Ziyin, Botao Li, Xiangming Meng
    • Journal Title

      Proceedings of the Conference on Neural Information Processing Systems

      Volume: -

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Posterior Collapse of a Linear Latent Variable Model2022

    • Author(s)
      Zihao Wang*, Liu Ziyin*
    • Journal Title

      Proceedings of the Conference on Neural Information Processing Systems

      Volume: -

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Presentation] On the stepwise nature of self-supervised learning2023

    • Author(s)
      James B. Simon, Maksis Knutins, Liu Ziyin, Daniel Geisz, Abraham J. Fetterman, Joshua Albrecht
    • Organizer
      International Conference on Machine Learning
    • Related Report
      2023 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Sparsity by Redundancy: Solving L1 with SGD2023

    • Author(s)
      Liu Ziyin, Zihao Wang
    • Organizer
      International Conference on Machine Learning
    • Related Report
      2023 Annual Research Report
    • Int'l Joint Research
  • [Presentation] What shapes the loss landscape of self-supervised learning?2023

    • Author(s)
      Liu Ziyin, Ekdeep Singh Lubana, Masahito Ueda, Hidenori Tanaka
    • Organizer
      International Conference on Learning Representations
    • Related Report
      2023 Annual Research Report
    • Int'l Joint Research

URL: 

Published: 2022-04-28   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi