• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

超高次元機械学習モデルの学習ダイナミクスの究明と効率的学習法の開発

研究課題

研究課題/領域番号 19K20337
研究種目

若手研究

配分区分基金
審査区分 小区分61030:知能情報学関連
研究機関九州工業大学 (2021)
東京大学 (2019-2020)

研究代表者

二反田 篤史  九州工業大学, 大学院情報工学研究院, 准教授 (60838811)

研究期間 (年度) 2019-04-01 – 2022-03-31
研究課題ステータス 完了 (2021年度)
配分額 *注記
4,290千円 (直接経費: 3,300千円、間接経費: 990千円)
2021年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2020年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2019年度: 2,210千円 (直接経費: 1,700千円、間接経費: 510千円)
キーワード機械学習 / 深層学習 / ニューラルネットワーク / 確率的勾配降下法 / ランジュバンダイナミクス / 確率的最適化法 / 平均場理論 / カーネル法 / 加速分散縮小法 / 超高次元ニューラルネット / 非凸最適化 / 確率的最適化
研究開始時の研究の概要

深層ニューラルネットは超高次元非凸モデルであるが,種々の学習テクニックを精密に適用する事で学習が可能となり,優れたパフォーマンスを発揮する事が経験的に示されている.
しかしながら,この様な超高次元モデルが正則化無しに高い汎化性能を示す事の理論的解析は未だ発展途上である.また非常に複雑な非線形モデルであるため最適化が困難でありパラメータチューニングに多大なコストを要するという問題もある.
本研究では,超高次元モデルの学習ダイナミクスそのものが汎化性の優れたパラメータを優先的に選択する機能を備えているという考えに基き超高次元モデルの成功を裏付ける為の理論構築及び効率的学習法の開発に取り組む.

研究成果の概要

深層学習に代表される高次元機械学習モデルが機能する要因の究明および効率的学習法の開発を目指し,学習ダイナミクスの研究を推進した.特に代表的学習法である(確率的)勾配降下法に対し次の成果を得た.
(1)線形モデルを用いた判別問題に対し判別誤差が低ノイズ条件下で指数収束することを証明.(2)確率的勾配降下法で学習された二層ニューラルネットワークの汎化性が最適効率を達成することをNTK理論を精緻化し証明.(3)輸送写像の関数勾配法理論に基づくニューラルネットワークの解析方法を考案し,新たな学習法を提案.(4)平均場ニューラルネットワークの最適化ダイナミクスの考案と収束性を証明.

研究成果の学術的意義や社会的意義

深層学習の原理解明に向けた二種の最適化理論:NTK理論および平均場ニューラルネットワーク理論の進展に寄与した.具体的にはNTK理論を精緻化しニューラルネットワークを理論上最適な効率で学習可能であることを初めて証明し,またデータへの適応性に優れた平均場ニューラルネットワークの最適化ダイナミクスを解析する新たな研究の流れを創出した.
これらの成果は深層学習の最適化ダイナミクスの基礎を与えるもので,深層学習の効率化への重要なステップである.

報告書

(4件)
  • 2021 実績報告書   研究成果報告書 ( PDF )
  • 2020 実施状況報告書
  • 2019 実施状況報告書
  • 研究成果

    (39件)

すべて 2022 2021 2020 2019

すべて 雑誌論文 (10件) (うち国際共著 2件、 査読あり 10件、 オープンアクセス 10件) 学会発表 (29件) (うち国際学会 11件、 招待講演 6件)

  • [雑誌論文] Convex Analysis of the Mean Field Langevin Dynamics2022

    • 著者名/発表者名
      Atsushi Nitanda, Denny Wu, Taiji Suzuki
    • 雑誌名

      Proceedings of Machine Learning Research (AISTATS2022)

      巻: 151 ページ: 9741-9757

    • 関連する報告書
      2021 実績報告書
    • 査読あり / オープンアクセス / 国際共著
  • [雑誌論文] Sharp characterization of optimal minibatch size for stochastic finite sum convex optimization2021

    • 著者名/発表者名
      Nitanda Atsushi, Murata Tomoya, Suzuki Taiji
    • 雑誌名

      Knowledge and Information Systems

      巻: 63 号: 9 ページ: 2513-2539

    • DOI

      10.1007/s10115-021-01593-1

    • 関連する報告書
      2021 実績報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Deep learning is adaptive to intrinsic dimensionality of model smoothness in anisotropic Besov space2021

    • 著者名/発表者名
      Taiji Suzuki, Atsushi Nitanda
    • 雑誌名

      Advances in Neural Information Processing Systems (NeurIPS2021)

      巻: 34 ページ: 3609-3621

    • 関連する報告書
      2021 実績報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Particle Dual Averaging: Optimization of Mean Field Neural Networks with Global Convergence Rate Analysis2021

    • 著者名/発表者名
      Atsushi Nitanda, Denny Wu, Taiji Suzuki
    • 雑誌名

      Advances in Neural Information Processing Systems (NeurIPS2021)

      巻: 34 ページ: 19608-19621

    • 関連する報告書
      2021 実績報告書
    • 査読あり / オープンアクセス / 国際共著
  • [雑誌論文] Exponential Convergence Rates of Classification Errors on Learning with SGD and Random Features2021

    • 著者名/発表者名
      Shingo Yashima, Atsushi Nitanda, and Taiji Suzuki
    • 雑誌名

      Proceedings of Machine Learning Research (AISTATS2021)

      巻: 130 ページ: 1954-1962

    • 関連する報告書
      2020 実施状況報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Functional Gradient Boosting for Learning Residual-like Networks with Statistical Guarantees2020

    • 著者名/発表者名
      Atsushi Nitanda and Taiji Suzuki
    • 雑誌名

      Proceedings of Machine Learning Research (AISTATS2020)

      巻: 108 ページ: 2981-2991

    • 関連する報告書
      2020 実施状況報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Stochastic Gradient Descent with Exponential Convergence Rates of Expected Classification Errors2019

    • 著者名/発表者名
      Atsushi Nitanda and Taiji Suzuki
    • 雑誌名

      Proceedings of Machine Learning Research (AISTATS2019)

      巻: 89 ページ: 1417-1426

    • 関連する報告書
      2019 実施状況報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Sharp Characterization of Optimal Minibatch Size for Stochastic Finite Sum Convex Optimization2019

    • 著者名/発表者名
      Nitanda Atsushi, Murata Tomoya, and Suzuki Taiji
    • 雑誌名

      In Proceedings of IEEE International Conference on Data Mining

      巻: - ページ: 488-497

    • 関連する報告書
      2019 実施状況報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Data Cleansing for Models Trained with SGD2019

    • 著者名/発表者名
      Satoshi Hara, Atsushi Nitanda, and Takanori Maehara
    • 雑誌名

      Advances in Neural Information Processing Systems

      巻: 32 ページ: 4215-4224

    • 関連する報告書
      2019 実施状況報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Hyperbolic Ordinal Embedding2019

    • 著者名/発表者名
      Atsushi Suzuki, Jing Wang, Feng Tian, Atsushi Nitanda, and Kenji Yamanishi
    • 雑誌名

      In Proceedings of Machine Learning Research (ACML2019)

      巻: 101 ページ: 1065-1080

    • 関連する報告書
      2019 実施状況報告書
    • 査読あり / オープンアクセス
  • [学会発表] Convex Analysis of the Mean Field Langevin Dynamics2022

    • 著者名/発表者名
      Atsushi Nitanda
    • 学会等名
      Workshop on Functional Inference and Machine Intelligence
    • 関連する報告書
      2021 実績報告書
    • 国際学会 / 招待講演
  • [学会発表] Deep learning is adaptive to intrinsic dimensionality of model smoothness in anisotropic Besov space2021

    • 著者名/発表者名
      Taiji Suzuki, Atsushi Nitanda
    • 学会等名
      Neural Information Processing Systems (NeurIPS2021)
    • 関連する報告書
      2021 実績報告書
    • 国際学会
  • [学会発表] Particle Dual Averaging: Optimization of Mean Field Neural Networks with Global Convergence Rate Analysis2021

    • 著者名/発表者名
      Atsushi Nitanda, Denny Wu, Taiji Suzuki
    • 学会等名
      Neural Information Processing Systems (NeurIPS2021)
    • 関連する報告書
      2021 実績報告書
    • 国際学会
  • [学会発表] Convex Analysis of the Mean Field Langevin Dynamics2021

    • 著者名/発表者名
      Atsushi Nitanda, Denny Wu, Taiji Suzuki
    • 学会等名
      International Conference on Artificial Intelligence and Statistics (AISTATS2022)
    • 関連する報告書
      2021 実績報告書
    • 国際学会
  • [学会発表] 平均場ニューラルネットワークの最適化法2021

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      日本オペレーションズ・リサーチ学会九州支部 2021年度第1回講演会・研究会
    • 関連する報告書
      2021 実績報告書
    • 招待講演
  • [学会発表] Optimality and superiority of deep learning for estimating functions in variants of Besov spaces2021

    • 著者名/発表者名
      Taiji Suzuki, Atsushi Nitanda, Kazuma Tsuji
    • 学会等名
      International Conference on Econometrics and Statistics (EcoSta)
    • 関連する報告書
      2021 実績報告書
    • 国際学会
  • [学会発表] Fast learning rates of averaged stochastic gradient descent for over-parameterized neural networks2021

    • 著者名/発表者名
      Atsushi Nitanda, Taiji Suzuki
    • 学会等名
      International Conference on Econometrics and Statistics (EcoSta)
    • 関連する報告書
      2021 実績報告書
    • 国際学会
  • [学会発表] 平均場ニューラルネットワークの収束率保証付き最適化2021

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      日本応用数理学会年会
    • 関連する報告書
      2021 実績報告書
  • [学会発表] 平均場ニューラルネットワークの効率的最適化法2021

    • 著者名/発表者名
      二反田篤史,大古一聡,Denny Wu,鈴木大慈
    • 学会等名
      統計関連学会連合大会
    • 関連する報告書
      2021 実績報告書
  • [学会発表] Particle Stochastic Dual Coordinate Ascent: Exponential Convergent Algorithm for Mean Field Neural Network Optimization2021

    • 著者名/発表者名
      大古一聡, 鈴木大慈, 二反田篤史, Denny Wu.
    • 学会等名
      情報論的学習理論ワークショップ (IBIS)
    • 関連する報告書
      2021 実績報告書
  • [学会発表] 二層ニューラルネットワークの最適化理論2021

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      第2回若手数学者交流会
    • 関連する報告書
      2020 実施状況報告書
  • [学会発表] When Does Preconditioning Help or Hurt Generalization?2020

    • 著者名/発表者名
      Shun-ichi Amari, Jimmy Ba, Roger Grosse, Xuechen Li, Atsushi Nitanda, Taiji Suzuki, Denny Wu, and Ji Xu
    • 学会等名
      International Conference on Learning Representation (ICLR2021)
    • 関連する報告書
      2020 実施状況報告書
    • 国際学会
  • [学会発表] Optimal Rates for Averaged Stochastic Gradient Descent under Neural Tangent Kernel Regime2020

    • 著者名/発表者名
      Atsushi Nitanda and Taiji Suzuki
    • 学会等名
      International Conference on Learning Representation (ICLR2021)
    • 関連する報告書
      2020 実施状況報告書
    • 国際学会
  • [学会発表] 確率的最適化法の収束解析2020

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      RAMP数理最適化シンポジウム
    • 関連する報告書
      2020 実施状況報告書
    • 招待講演
  • [学会発表] 確率的勾配降下法のNTK理論による最適収束率2020

    • 著者名/発表者名
      二反田篤史,鈴木大慈
    • 学会等名
      統計関連学会連合大会
    • 関連する報告書
      2020 実施状況報告書
  • [学会発表] 粒子双対平均化法:平均場ニューラルネットワークの大域的収束保証付最適化法2020

    • 著者名/発表者名
      二反田篤史,Denny Wu, 鈴木大慈
    • 学会等名
      情報論的学習理論ワークショップ (IBIS)
    • 関連する報告書
      2020 実施状況報告書
  • [学会発表] 二段階最適化によるモデル抽出攻撃に対する防御2020

    • 著者名/発表者名
      森雄人, 二反田篤史, 武田朗子
    • 学会等名
      情報論的学習理論ワークショップ (IBIS)
    • 関連する報告書
      2020 実施状況報告書
  • [学会発表] When Does Preconditioning Help or Hurt Generalization?2020

    • 著者名/発表者名
      Shun-ichi Amari, Jimmy Ba, Roger Grosse, Xuechen Li, Atsushi Nitanda, Taiji Suzuki, Denny Wu, and Ji Xu
    • 学会等名
      The 12th OPT Workshop on Optimization for Machine Learning
    • 関連する報告書
      2020 実施状況報告書
    • 国際学会
  • [学会発表] Stochastic Gradient Descent with Exponential Convergence Rates for Classification Problems2019

    • 著者名/発表者名
      Atsushi Nitanda
    • 学会等名
      Summer School 2019 on Transfer Learning
    • 関連する報告書
      2019 実施状況報告書
    • 国際学会 / 招待講演
  • [学会発表] 高次元ニューラルネットに対する勾配法の大域収束性と汎化性能解析2019

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      日本オペレーションズ・リサーチ学会 研究部会 最適化とその応用 (OPTA)
    • 関連する報告書
      2019 実施状況報告書
    • 招待講演
  • [学会発表] 学習アルゴリズムの大域収束性と帰納的バイアス2019

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      情報論的学習理論ワークショップ (IBIS)
    • 関連する報告書
      2019 実施状況報告書
    • 招待講演
  • [学会発表] Random Featureを用いた確率的勾配法の期待識別誤差の収束解析2019

    • 著者名/発表者名
      八嶋晋吾,二反田篤史,鈴木大慈
    • 学会等名
      情報論的学習理論ワークショップ(IBIS)
    • 関連する報告書
      2019 実施状況報告書
  • [学会発表] SGDの挙動解析に基づくデータクレンジング2019

    • 著者名/発表者名
      原聡,二反田篤史,前原貴憲
    • 学会等名
      情報論的学習理論ワークショップ(IBIS)
    • 関連する報告書
      2019 実施状況報告書
  • [学会発表] 高次元二層ニューラルネットに対する勾配降下法による識別誤差の大域収束性と汎化性能解析2019

    • 著者名/発表者名
      二反田篤史,鈴木大慈
    • 学会等名
      情報論的学習理論ワークショップ(IBIS)
    • 関連する報告書
      2019 実施状況報告書
  • [学会発表] 識別問題に対する高次元二層ニューラルネットの大域収束性と汎化性能解析2019

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      情報系 WINTER FESTA Episode 5
    • 関連する報告書
      2019 実施状況報告書
  • [学会発表] Exponential convergence of stochastic gradient descent for binary classification problems2019

    • 著者名/発表者名
      Atsushi Nitanda, Taiji Suzuki
    • 学会等名
      The Conference of Data Science, Statistics & Visualisation (DSSV)
    • 関連する報告書
      2019 実施状況報告書
    • 国際学会
  • [学会発表] 識別問題に対する高次元ニューラルネットの勾配降下法の大域収束性と汎化性能解析2019

    • 著者名/発表者名
      二反田篤史,鈴木大慈
    • 学会等名
      日本応用数理学会年会
    • 関連する報告書
      2019 実施状況報告書
  • [学会発表] 識別問題に対する高次元二層ニューラルネットの勾配法による汎化性能解析2019

    • 著者名/発表者名
      二反田篤史,鈴木大慈
    • 学会等名
      統計関連学会連合大会
    • 関連する報告書
      2019 実施状況報告書
  • [学会発表] カーネル法におけるrandom featureを用いた確率的勾配法の期待識別誤差の線形収束性2019

    • 著者名/発表者名
      八嶋晋吾,二反田篤史,鈴木大慈
    • 学会等名
      統計関連学会連合大会
    • 関連する報告書
      2019 実施状況報告書

URL: 

公開日: 2019-04-18   更新日: 2023-01-30  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi