• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2021 Fiscal Year Research-status Report

深層統計モデルによる科学的仮説検証のための非漸近推測理論の開発

Research Project

Project/Area Number 21K11780
Research InstitutionThe University of Tokyo

Principal Investigator

今泉 允聡  東京大学, 大学院総合文化研究科, 准教授 (90814088)

Project Period (FY) 2021-04-01 – 2024-03-31
Keywords深層モデル / 過剰パラメータ / 統計的推論 / 汎化誤差
Outline of Annual Research Achievements

本研究の目的は、深層モデルに適用可能な統計的推論法を開発することである。深層モデルには、層の数に関する複雑性とパラメータの膨大性という二つの特徴があり、それらを考慮した推論法を開発するという二つの困難さがある。また層の数に関する技術的課題には、線形モデルやガウス性を用いた近似を解する方法と、深層構造を直接制御する二つの方策がある。これらの方針のもとで以下のような研究の進捗を得た。
1. 線形性やガウス性を用いた近似による深層構造の解析:この方針に基づく解析では、深層モデルを含む一般の(非線形)損失関数を線形近似し、そのモデルの確率的変動をヘッセ行列のスペクトル行列を用いて評価した。この時のヘッセ行列の各要素は従属する場合があるため、その場合に適合するランダム行列理論を用いて評価を行った。結果として、一定の仮定の下での挙動の記述に成功したが、仮定を満たす例が非自明であるため、その部分の解析を進めている。
2. 深層構造を直接制御する解析:この方針では、非凸損失関数の形状と確率的な学習アルゴリズムの性質を考慮し、アルゴリズムが出力するパラメータが止まる集合を特定し、さらにその下でのパラメータ行列の各層ごとのスペクトルを用いて、深層モデルの確率的挙動を記述した。結果として、損失関数の平坦な形状がパラメータの誤差に影響を及ぼすという理論を構築した。
3. 膨大なパラメータの解析:この項目については、いわゆる過剰パラメータの理論の一つである良性過適合の理論に注目し、これらを時系列データやベイズ推定に応用した。結果として、長期記憶を持つような従属データの元でも良性過適合が起こることや、特殊な事前分布に基づくベイズ推定が良性過適合の性質を引き継ぐ事後分布を構成することを明らかにした。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

現状において、深層モデルに関する複数の研究プロジェクトが進行し、概ね想定された結果が得られている。これらを論文化する作業も順調に進展しており、いくつかは投稿や改訂要求のプロセスに進んでいる。いくつかの結果は、証明の問題点を指摘され修正を行っているが、それらについても概ね対処方針は立っている。

Strategy for Future Research Activity

この項目では、「研究実績の概要」にて言及した三つの項目ごとに方策を説明する。
1. 線形性やガウス性を用いた近似による深層構造の解析:この項目では、仮定を満たす例の構築を進める。ただしここで問題になるのが、パラメータに基づくモデルの識別性である。これらの線形近似理論では、解析対象となるモデルは一意なパラメータで識別されていることを要求する。しかし、深層ニューラルネットワークにおいてその仮定が満たされることは非常に少ない。対処として、モデルや学習手法に仮定を導入するという方法か、もしくはパラメータが一点ではなく(一意な)分布に従うという新しい設定を導入して対処を試みる。
2. 深層構造を直接制御する解析:この項目では、得られた論文の改訂要求などをまず完了する。続いて、(i)理論に用いている学習アルゴリズムの精緻化、および(ii)層のスペクトル構造に頼らない柔軟な汎化理論の構築を行う。前者については、いわゆる非等方的摂動を用いた学習アルゴリズムの解析を進める。現状の理論は等方的摂動の学習アルゴリズムに依存しているが、これは実際とは乖離しており、このギャップを埋めることは実用的かつ挑戦的な問いである。後者については、層の構造を解析する際に行列のスペクトルではなく関数自体の変動を用いる数学によっての記述を試みる。これは数学的に新しい試みである。
3. 膨大なパラメータの解析:この項目については、すでに得られた理論的結果の論文化を推進する。すでに主定理やその理論の検証は大きく進展しているため、数値実験による検証や応用例の発見など、論文化の上で必要な要素を効率的に進める。

Causes of Carryover

リサーチアシスタントの業務量及び雇用期間に瑣末な変更が生じたため。

  • Research Products

    (23 results)

All 2022 2021 Other

All Int'l Joint Research (2 results) Journal Article (5 results) (of which Int'l Joint Research: 2 results,  Peer Reviewed: 5 results,  Open Access: 5 results) Presentation (13 results) (of which Int'l Joint Research: 4 results,  Invited: 9 results) Book (2 results) Remarks (1 results)

  • [Int'l Joint Research] Rutgers University(米国)

    • Country Name
      U.S.A.
    • Counterpart Institution
      Rutgers University
  • [Int'l Joint Research] University of Twente(オランダ)

    • Country Name
      NETHERLANDS
    • Counterpart Institution
      University of Twente
  • [Journal Article] Learning Causal Relationships from Conditional Moment Restrictions by Importance Weighting2022

    • Author(s)
      M.Kato, M.Imaizumi, K.McAlinn, S.Yasui, H.Kakehi
    • Journal Title

      International Conference on Learning Representations

      Volume: - Pages: -

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Hypothesis Test and Confidence Analysis with Wasserstein Distance on General Dimension2022

    • Author(s)
      M.Imaizumi, H.Ota, T.Hamaguchi
    • Journal Title

      Neural Computation

      Volume: - Pages: -

    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Journal Article] Advantage of Deep Neural Networks for Estimating Functions with Singularity on Hypersurface2022

    • Author(s)
      M.Imaizumi, K.Fukumizu
    • Journal Title

      Journal of Machine Learning Research

      Volume: 23 Pages: 1-54

    • Peer Reviewed / Open Access
  • [Journal Article] Improved Generalization Bounds of Group Invariant / Equivariant Deep Networks via Quotient Feature Spaces2021

    • Author(s)
      A.Sannai, M.Imaizumi, M.Kawano
    • Journal Title

      PMLR: Uncertainty on Artificial Intelligence

      Volume: 161 Pages: 771-780

    • DOI

      10.48550/arXiv.1910.06552

    • Peer Reviewed / Open Access
  • [Journal Article] Frechet Kernel for Trajectory Data Analysis2021

    • Author(s)
      Takeuchi Koh、Imaizumi Masaaki、Kanda Shunsuke、Tabei Yasuo、Fujii Keisuke、Yoda Ken、Ishihata Masakazu、Maekawa Takuya
    • Journal Title

      ACM SIGSPATIAL

      Volume: - Pages: -

    • DOI

      10.1145/3474717.3483949

    • Peer Reviewed / Open Access
  • [Presentation] Stability of Deep Network Estimator for Nonparametric Regression2022

    • Author(s)
      Masaaki Imaizumi
    • Organizer
      Workshop on Functional Inference and Machine Intelligence
    • Int'l Joint Research / Invited
  • [Presentation] Exponential escape efficiency of SGD from sharp minima2022

    • Author(s)
      H. Ibayashi, M. Imaizumi
    • Organizer
      Workshop on Functional Inference and Machine Intelligence
    • Int'l Joint Research
  • [Presentation] Minimum sharpness: Scale-invariant parameter-robus…2021

    • Author(s)
      H.Ibayashi, T.Hamaguchi, M.Imaizumi
    • Organizer
      ICML Workshop on Theoretic Foundation, Criticism, …
    • Int'l Joint Research
  • [Presentation] 深層学習の理論2021

    • Author(s)
      今泉允聡
    • Organizer
      松尾研セミナー
    • Invited
  • [Presentation] Implicit Regularization and Over-parameterization2021

    • Author(s)
      Masaaki Imaizumi
    • Organizer
      知の物理学センター
    • Invited
  • [Presentation] On Gaussian Approximation on M-Estimator2021

    • Author(s)
      Masaaki Imaizumi
    • Organizer
      International Chinese Statistical Association
    • Int'l Joint Research / Invited
  • [Presentation] 関数推定の理論に基づく深層学習の原理解析2021

    • Author(s)
      今泉允聡
    • Organizer
      微分方程式とデータサイエンス研究会
    • Invited
  • [Presentation] 深層学習の原理を明らかにする理論の試み2021

    • Author(s)
      今泉允聡
    • Organizer
      統計関連学会連合大会
    • Invited
  • [Presentation] 深層学習の原理を明らかにする理論の試み2021

    • Author(s)
      今泉允聡
    • Organizer
      中央大学理工学研究所特別講演会
    • Invited
  • [Presentation] Deep Neural Networks Learn Non-Smooth Functions Effectively2021

    • Author(s)
      今泉允聡
    • Organizer
      細谷賞セミナー
    • Invited
  • [Presentation] Gradient Descent Algorithm with Path Kernel-based …2021

    • Author(s)
      西澤 渉, 今泉允聡
    • Organizer
      IBIS2021
  • [Presentation] 深層学習の原理を明らかにする理論の試み2021

    • Author(s)
      今泉允聡
    • Organizer
      顕微鏡計測インフォマティックス部会
    • Invited
  • [Presentation] AIの原理を解き明かす新理論2021

    • Author(s)
      今泉允聡
    • Organizer
      JST理事長記者会見
  • [Book] ニューラルネットワークとディープラーニング2022

    • Author(s)
      Charu C. Aggarwal、竹村 彰通、今泉 允聡、李 鍾賛、今井 貴史、今井 徹、紅林 亘、齋藤 邦彦、健山 智子、寺田 裕、西出 俊、西出 亮
    • Total Pages
      520
    • Publisher
      学術図書出版社
    • ISBN
      4780607140
  • [Book] 深層学習の原理に迫る2021

    • Author(s)
      今泉 允聡
    • Total Pages
      126
    • Publisher
      岩波書店
    • ISBN
      4000297031
  • [Remarks] 深層学習によるデータ固有のフラクタル構造などへの適応を証明

    • URL

      https://www.u-tokyo.ac.jp/focus/ja/articles/z0508_00102.html

URL: 

Published: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi