• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2020 Fiscal Year Annual Research Report

Intensifying deep learning theory and its application to structure analysis of deep neural network

Research Project

Project/Area Number 18H03201
Research InstitutionThe University of Tokyo

Principal Investigator

鈴木 大慈  東京大学, 大学院情報理工学系研究科, 准教授 (60551372)

Project Period (FY) 2018-04-01 – 2022-03-31
Keywords深層学習 / 機械学習 / 統計的学習理論 / 汎化誤差 / カーネル法
Outline of Annual Research Achievements

今年度は,深層学習の原理に関して主に最適化の観点から研究を進めた.
(1) 無限次元勾配ランジュバン動力学を用いた深層学習の最適化:深層学習の学習は非凸最適化問題を解く必要があり,通常の勾配法では局所解に陥る可能性がある.また,深層ニューラルネットワークは多数のパラメータを有するため,超高次元非凸最適化問題を解く必要がある.そこで,本研究では,無限次元非凸最適化問題を解くための無限次元勾配ランジュバン動力学を用いることを考え,その大域的最適性および汎化性能を解析した.結果としてfast learning rateと呼ばれる学習効率のバウンドを得た.また,カーネルリッジ回帰のような浅い学習方法に対して優越することを理論的に示した.
(2) Neural Tangent Kernel (NTK) の確率的最適化と最適予測誤差:深層学習は非凸最適化問題に帰着されるが,横幅の広い過剰パラメータモデルを考えると線形モデルで近似できることが知られている.本研究ではこの近似が成り立つ状況において深層学習を確率的最適化することで,ある種の最適学習レートを達成できることを示した.この結果はICLR2021のoutstanding paper awardを受賞した.
(3) 再生核ヒルベルト空間上の確率的最適化を考察し,重みづけたデータのサンプリングをすることで学習のレートを改善できることや,ランダム特徴量を用いたカーネルの低ランク近似を用いても判別誤差を指数的に減少させることができることを示した.
(4) グラフ畳み込みネットワーク (GCN) の過平滑化と呼ばれる現象を理論的に明らかにし,それを防ぐための方法であるmutli-scale GCNと呼ばれる手法をBoosting法として再定式化し,その最適化および汎化誤差を導出し,実験的にも手法の有用性を実証した.

Current Status of Research Progress
Current Status of Research Progress

1: Research has progressed more than it was originally planned.

Reason

当初の計画でも深層学習の学習理論を最適化理論と両立する形で打ち立てることを想定していたが,今年度はその目標を期待以上に達成することができた.特に無限次元勾配ランジュバン動力学を用いた解析は浅い学習方法と比べた優越性を明瞭な形で与え,当初の予想を超えるものであった.

Strategy for Future Research Activity

これまでの研究により深層学習の表現能力,汎化誤差,最適化理論を進めてきたが,まだ完全であるとは言えない.表現能力に関しては,入力が無限次元に近い超高次元入力が得られる場合まで理論を拡張し,汎化誤差に関しては過剰パラメータ化されたネットワークが過学習起こしても予測誤差を小さくできることを特徴抽出も含めて示し,最適化理論においては多層ネットワークが勾配法により最適化できることおよび陰的正則化の影響を調べる.

  • Research Products

    (38 results)

All 2021 2020 Other

All Journal Article (16 results) (of which Int'l Joint Research: 3 results,  Peer Reviewed: 15 results,  Open Access: 15 results) Presentation (21 results) (of which Int'l Joint Research: 5 results,  Invited: 11 results) Remarks (1 results)

  • [Journal Article] Estimation error analysis of deep learning on the regression problem on the variable exponent Besov space2021

    • Author(s)
      Tsuji Kazuma、Suzuki Taiji
    • Journal Title

      Electronic Journal of Statistics

      Volume: 15 Pages: 1869--1908

    • DOI

      10.1214/21-EJS1828

    • Peer Reviewed / Open Access
  • [Journal Article] Goodness-of-fit test for latent block models2021

    • Author(s)
      Watanabe Chihiro、Suzuki Taiji
    • Journal Title

      Computational Statistics & Data Analysis

      Volume: 154 Pages: 107090~107090

    • DOI

      10.1016/j.csda.2020.107090

    • Peer Reviewed / Open Access
  • [Journal Article] 深層学習の統計理論2021

    • Author(s)
      鈴木 大慈
    • Journal Title

      日本統計学会誌

      Volume: 50 Pages: 229~256

    • DOI

      10.11329/jjssj.50.229

    • Peer Reviewed / Open Access
  • [Journal Article] A reproducing kernel Hilbert space approach to high dimensional partially varying coefficient model2020

    • Author(s)
      Lv Shaogao、Fan Zengyan、Lian Heng、Suzuki Taiji、Fukumizu Kenji
    • Journal Title

      Computational Statistics & Data Analysis

      Volume: 152 Pages: 107039~107039

    • DOI

      10.1016/j.csda.2020.107039

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Independently Interpretable Lasso for Generalized Linear Models2020

    • Author(s)
      Takada Masaaki、Suzuki Taiji、Fujisawa Hironori
    • Journal Title

      Neural Computation

      Volume: 32 Pages: 1168~1221

    • DOI

      10.1162/neco_a_01279

    • Peer Reviewed / Open Access
  • [Journal Article] Compression based bound for non-compressed network: unified generalization error analysis of large compressible deep neural network2020

    • Author(s)
      Taiji Suzuki, Hiroshi Abe, Tomoaki Nishimura
    • Journal Title

      ICLR2020

      Volume: 8 Pages: --

    • Peer Reviewed / Open Access
  • [Journal Article] Graph Neural Networks Exponentially Lose Expressive Power for Node Classification2020

    • Author(s)
      Kenta Oono, Taiji Suzuki
    • Journal Title

      ICLR2020

      Volume: 8 Pages: --

    • Peer Reviewed / Open Access
  • [Journal Article] Generalization of Two-layer Neural Networks: An Asymptotic Viewpoint2020

    • Author(s)
      Jimmy Ba, Murat Erdogdu, Taiji Suzuki, Denny Wu, Tianzong Zhang
    • Journal Title

      ICLR2020

      Volume: 8 Pages: --

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Understanding of Generalization in Deep Learning via Tensor Methods2020

    • Author(s)
      Jingling Li, Yanchao Sun, Ziyin Liu, Taiji Suzuki and Furong Huang
    • Journal Title

      AISTATS2020, Proceedings of Machine Learning Research

      Volume: 108 Pages: 504--515

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Functional Gradient Boosting for Learning Residual-like Networks with Statistical Guarantees2020

    • Author(s)
      Atsushi Nitanda, Taiji Suzuki
    • Journal Title

      AISTATS2020, Proceedings of Machine Learning Research

      Volume: 108 Pages: 2981--2991

    • Peer Reviewed / Open Access
  • [Journal Article] Spectral pruning: Compressing deep neural networks via spectral analysis and its generalization error2020

    • Author(s)
      Taiji Suzuki, Hiroshi Abe, Tomoya Murata, Shingo Horiuchi, Kotaro Ito, Tokuma Wachi, So Hirai, Masatoshi Yukishima, Tomoaki Nishimura
    • Journal Title

      IJCAI-PRICAI 2020

      Volume: 29 Pages: 2839--2846

    • DOI

      10.24963/ijcai.2020/393

    • Peer Reviewed / Open Access
  • [Journal Article] Domain Adaptation Regularization for Spectral Pruning2020

    • Author(s)
      Laurent Dillard, Yosuke Shinya, Taiji Suzuki
    • Journal Title

      BMVC2020 (British Machine Vision Conference 2020)

      Volume: 31 Pages: --

    • Peer Reviewed / Open Access
  • [Journal Article] Optimization and Generalization Analysis of Transduction through Gradient Boosting and Application to Multi-scale Graph Neural Networks2020

    • Author(s)
      Kenta Oono, Taiji Suzuki
    • Journal Title

      Advances in Neural Information Processing Systems

      Volume: 33 Pages: 18917--18930

    • Peer Reviewed / Open Access
  • [Journal Article] Generalization bound of globally optimal non-convex neural network training: Transportation map estimation by infinite dimensional Langevin dynamics2020

    • Author(s)
      Taiji Suzuki
    • Journal Title

      Advances in Neural Information Processing Systems

      Volume: 33 Pages: 19224--19237

    • Peer Reviewed / Open Access
  • [Journal Article] Bayesian optimization design for dose‐finding based on toxicity and efficacy outcomes in phase I/ II clinical trials2020

    • Author(s)
      Takahashi Ami、Suzuki Taiji
    • Journal Title

      Pharmaceutical Statistics

      Volume: 20(3) Pages: 422--439

    • DOI

      10.1002/pst.2085

    • Peer Reviewed / Open Access
  • [Journal Article] 数理工学とAI2020

    • Author(s)
      鈴木大慈
    • Journal Title

      数理科学

      Volume: 685 Pages: 13--19

  • [Presentation] Optimization and statistical efficiency of neural network in mean field regimes2021

    • Author(s)
      Taiji Suzuki
    • Organizer
      Workshop on Functional Inference and Machine Intelligence
    • Int'l Joint Research / Invited
  • [Presentation] 深層学習の理論2021

    • Author(s)
      鈴木大慈
    • Organizer
      言語処理学会第27回年次大会(NLP2021)
    • Invited
  • [Presentation] Recent theoretical developments about statistical and optimization efficiency of deep learning2021

    • Author(s)
      Taiji Suzuki
    • Organizer
      First Australia-Japan Workshop on Machine Learning
  • [Presentation] Benefit of deep learning: Statistical efficiency and optimization guarantee with non-convex noisy gradient descent2021

    • Author(s)
      Taiji Suzuki
    • Organizer
      Statistics Seminar at University of Bristol
    • Int'l Joint Research / Invited
  • [Presentation] 深層学習の最適化と汎化誤差:非凸性の観点から2020

    • Author(s)
      鈴木大慈
    • Organizer
      物性研究所短期研究会 「量子多体計算と第一原理計算の新展開」(FQCS2020)
    • Invited
  • [Presentation] 深層学習の数理:カーネル法,スパース推定との接点2020

    • Author(s)
      鈴木大慈
    • Organizer
      画像の認識・理解シンポジウム MIRU2020
    • Invited
  • [Presentation] 機械学習における最適化理論と学習理論的側面2020

    • Author(s)
      鈴木大慈
    • Organizer
      第17回組合せ最適化セミナー
    • Invited
  • [Presentation] 無限次元勾配ランジュバン動力学による深層学習の最適化理論と汎化誤差解析2020

    • Author(s)
      鈴木大慈
    • Organizer
      九州大学統計科学セミナー
    • Invited
  • [Presentation] 無限次元勾配ランジュバン動力学による深層学習の最適化と汎化誤差解析2020

    • Author(s)
      鈴木大慈
    • Organizer
      第23回情報論的学習理論ワークショップ (IBIS2020)
    • Invited
  • [Presentation] 無限次元勾配ランジュバン動力学によるニューラルネットワークの最適化理論と汎化誤差解析2020

    • Author(s)
      鈴木 大慈
    • Organizer
      2020年度統計関連学会連合大会
  • [Presentation] 勾配ブースティング法を用いたマルチスケールグラフニューラルネットの学習とその最適化・汎化性能解析2020

    • Author(s)
      大野 健太,鈴木 大慈
    • Organizer
      2020年度統計関連学会連合大会
  • [Presentation] 確率的勾配降下法のNTK理論による最適収束率2020

    • Author(s)
      二反田 篤史,鈴木 大慈
    • Organizer
      2020年度統計関連学会連合大会
  • [Presentation] Latent Block Modelのブロック構造に関する選択的推論2020

    • Author(s)
      渡邊 千紘,鈴木 大慈
    • Organizer
      2020年度統計関連学会連合大会
  • [Presentation] 再生核ヒルベルト空間上の非凸最適化問題に対する勾配ランジュバン動力学の収束誤差解析2020

    • Author(s)
      佐藤 寛司,鈴木 大慈
    • Organizer
      2020年度統計関連学会連合大会
  • [Presentation] 変動指数Besov空間の回帰問題に対する深層学習の推定誤差解析2020

    • Author(s)
      辻 和真,鈴木 大慈
    • Organizer
      2020年度統計関連学会連合大会
  • [Presentation] マルチスケールグラフニューラルネットの勾配ブースティング法による解析2020

    • Author(s)
      大野 健太, 鈴木 大慈
    • Organizer
      第23回情報論的学習理論ワークショップ (IBIS2020)
  • [Presentation] 変動指数Besov 空間の回帰問題に対する深層学習の推定誤差解析2020

    • Author(s)
      辻 和真, 鈴木 大慈
    • Organizer
      第23回情報論的学習理論ワークショップ (IBIS2020)
  • [Presentation] 粒子双対平均化法:平均場ニューラルネットワークの大域的収束保証付最適化法2020

    • Author(s)
      二反田 篤史, Denny Wu, 鈴木 大慈
    • Organizer
      第23回情報論的学習理論ワークショップ (IBIS2020)
  • [Presentation] Statistical efficiency and optimization of deep learning from the view point of non-convexity2020

    • Author(s)
      Taiji Suzuki
    • Organizer
      Applied Mathematics and Computation Seminar at UMass Amherst
    • Int'l Joint Research / Invited
  • [Presentation] Statistical efficiency and optimization of deep learning from the view point of non-convexity2020

    • Author(s)
      Taiji Suzuki
    • Organizer
      "AI + Math" Colloquia, Institute of Natural Sciences, Shanghai Jiao Tong University
    • Int'l Joint Research / Invited
  • [Presentation] Statistical efficiency and optimization of deep learning from the viewpoint of non-convexity2020

    • Author(s)
      Taiji Suzuki
    • Organizer
      Math Machine Learning seminar MPI MIS + UCLA
    • Int'l Joint Research / Invited
  • [Remarks] Taiji Suzuki's home page

    • URL

      http://ibis.t.u-tokyo.ac.jp/suzuki/

URL: 

Published: 2021-12-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi