• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 課題ページに戻る

2020 年度 実施状況報告書

超高次元機械学習モデルの学習ダイナミクスの究明と効率的学習法の開発

研究課題

研究課題/領域番号 19K20337
研究機関東京大学

研究代表者

二反田 篤史  東京大学, 大学院情報理工学系研究科, 助教 (60838811)

研究期間 (年度) 2019-04-01 – 2022-03-31
キーワード確率的最適化法 / ニューラルネットワーク / カーネル法
研究実績の概要

機械学習の学習ダイナミクスに関して以下の成果を得た.
(1) 近年の研究により高次元ニューラルネットワークに対する最適化法が何故大域収束し汎化性を持つのか部分的に説明されつつある.その理論的枠組みの一つに最適化に伴うニューラルネットワークの学習ダイナミクスを関数空間内で記述するNTKという概念がある.NTKを用いた既存研究においてニューラルネットワークの最適化法に対する大域収束性および汎化性が示されたが,さらに理論を改善する余地があった.本研究では二乗損失を用いた回帰問題において真の関数およびニューラルネットワークに適切な設定を課すことで既存の結果を上回るかつそれ以上改善不能な最適収束性を導出した.この理論を実際のニューラルネットワークの説明に適用するにはまだ拡張しなければならない点があるが,学習ダイナミクスの局所解析には非常に有効であると考えられる.
(2) ラベルの強低ノイズ条件下での識別誤差の線形収束性に関する成果を拡張した.以前の結果では真に無限次元のモデルである再生核ヒルベルト空間を仮説空間として解析していたが,ランダム特徴を用いた近似空間でも同様の理論が成り立つことを示した.ランダム特徴は計算効率の観点での有用性が知られていたが,本設定でよその有用性がより際立つことも示した.またカーネル法との関連性を通じて深層学習の学習ダイナミクスの理解にも繋がると予想している.
(3) 認識問題等で高い性能を発揮するResNetに対して大域的収束保証付きの学習法を提案した.ResNetは他の深層学習モデルと同様にその学習が非凸最適化に帰着されることによる最適化の困難性が知られている.本研究は学習途中の層の追加によりこの困難性を一部回避可能であることを示すものである.

現在までの達成度 (区分)
現在までの達成度 (区分)

1: 当初の計画以上に進展している

理由

本研究では機械学習に対する最適化手法の学習ダイナミクスの理解を目指し,次の研究項目を設定していた.(研究1)低ノイズ条件下超高次元二層ニューラルネットワークの解析,(研究2)ResNetの関数勾配・最適輸送理論的解析,(研究3)ミニバッチ確率的勾配降下法の理論限界の究明と改良.
本年度の研究成果は主に(研究1)と(研究2)に関するものであるが当初想定していた成果が概ね実現できたといえる.さらに研究実績で報告したNTK理論に関する成果(1)は主要国際会議であるICLRにおいてOutstanding paper awardを受賞したことからもその貢献が認められている.

今後の研究の推進方策

当初の計画は概ね達成されたといえるが,高次元ニューラルネットワークの理解を更に深めるためにこれまでの成果を更に洗練させる.本年度のNTK理論によりニューラルネットワークの性質が一部明らかになったが,その実態を説明するには不十分な点がある.それはNTK理論が本質的に局所理論であることに起因するが,この点に関して別のアプローチである平均場ニューラルネットワーク理論が有用であると考えられている.そこで今後はこの両理論の統合を目指す.またResNetの学習法をより実際的なものへと改良することも計画している.

次年度使用額が生じた理由

当初の予算使用計画では予算を国際会議や国内会議の出張費に多く振り分けていたが,それらがCOVID-19に伴う状況の変化ですべてオンライン開催となった.その分の旅費・宿泊費等を次年度に振り分ける.
今年度も同じような状況が続くと思われますがコンピュータや研究に関する備品の購入費に割りあて,研究環境をより充実させる計画である.

  • 研究成果

    (10件)

すべて 2021 2020

すべて 雑誌論文 (2件) (うち査読あり 2件、 オープンアクセス 2件) 学会発表 (8件) (うち国際学会 3件、 招待講演 1件)

  • [雑誌論文] Exponential Convergence Rates of Classification Errors on Learning with SGD and Random Features2021

    • 著者名/発表者名
      Shingo Yashima, Atsushi Nitanda, and Taiji Suzuki
    • 雑誌名

      Proceedings of Machine Learning Research (AISTATS2021)

      巻: 130 ページ: 1954-1962

    • 査読あり / オープンアクセス
  • [雑誌論文] Functional Gradient Boosting for Learning Residual-like Networks with Statistical Guarantees2020

    • 著者名/発表者名
      Atsushi Nitanda and Taiji Suzuki
    • 雑誌名

      Proceedings of Machine Learning Research (AISTATS2020)

      巻: 108 ページ: 2981-2991

    • 査読あり / オープンアクセス
  • [学会発表] 二層ニューラルネットワークの最適化理論2021

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      第2回若手数学者交流会
  • [学会発表] When Does Preconditioning Help or Hurt Generalization?2020

    • 著者名/発表者名
      Shun-ichi Amari, Jimmy Ba, Roger Grosse, Xuechen Li, Atsushi Nitanda, Taiji Suzuki, Denny Wu, and Ji Xu
    • 学会等名
      International Conference on Learning Representation (ICLR2021)
    • 国際学会
  • [学会発表] Optimal Rates for Averaged Stochastic Gradient Descent under Neural Tangent Kernel Regime2020

    • 著者名/発表者名
      Atsushi Nitanda and Taiji Suzuki
    • 学会等名
      International Conference on Learning Representation (ICLR2021)
    • 国際学会
  • [学会発表] 確率的最適化法の収束解析2020

    • 著者名/発表者名
      二反田篤史
    • 学会等名
      RAMP数理最適化シンポジウム
    • 招待講演
  • [学会発表] 確率的勾配降下法のNTK理論による最適収束率2020

    • 著者名/発表者名
      二反田篤史,鈴木大慈
    • 学会等名
      統計関連学会連合大会
  • [学会発表] 粒子双対平均化法:平均場ニューラルネットワークの大域的収束保証付最適化法2020

    • 著者名/発表者名
      二反田篤史,Denny Wu, 鈴木大慈
    • 学会等名
      情報論的学習理論ワークショップ (IBIS)
  • [学会発表] 二段階最適化によるモデル抽出攻撃に対する防御2020

    • 著者名/発表者名
      森雄人, 二反田篤史, 武田朗子
    • 学会等名
      情報論的学習理論ワークショップ (IBIS)
  • [学会発表] When Does Preconditioning Help or Hurt Generalization?2020

    • 著者名/発表者名
      Shun-ichi Amari, Jimmy Ba, Roger Grosse, Xuechen Li, Atsushi Nitanda, Taiji Suzuki, Denny Wu, and Ji Xu
    • 学会等名
      The 12th OPT Workshop on Optimization for Machine Learning
    • 国際学会

URL: 

公開日: 2021-12-27  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi