• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Annual Research Report

ランダム深層ニューラルネットの数理的基盤の構築とその学習への応用

Research Project

Project/Area Number 19K20366
Research InstitutionNational Institute of Advanced Industrial Science and Technology

Principal Investigator

唐木田 亮  国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 主任研究員 (30803902)

Project Period (FY) 2019-04-01 – 2023-03-31
Keywordsニューラルネットワーク / 深層学習 / 機械学習 / 統計力学的解析 / レプリカ法 / 継続学習
Outline of Annual Research Achievements

本研究の目的は, 深層学習の数理的基盤となる枠組みを, ランダム結合をもつニューラルネットワークの解析に基づいて構成することである. 研究実施計画最終年度である本年度は, 課題1のランダム深層ニューラルネットの理論構築から課題2の学習手法への応用まで, まんべんなく成果を得ることができた. 具体的には, 局所受容野の構造を埋め込んだランダム結合を持つモデルでNTKレジームにおける学習を考え, 局所受容野の構造に応じて, 入力摂動に対する頑健性が得られることを明らかにした. 成果は国際英文雑誌に採択された. また記憶埋め込み結合をもつ連想記憶モデルに関連しては近年, 深層学習で広く使われる自己注意機構と連続値Hopfieldモデルとの対応が報告されている. このモデルの理解を広げるため, 本年度はこのHopfieldモデルの学習に対応するBoltzmann machineを提案し, その学習の典型的挙動を理論解析および数値実験から明らかにした. 成果は国際英文雑誌に採択され, 今後, 記憶埋め込み型モデルの視点から利便性の高い深層モデルの拡張・提案を行う研究群に対し, 基盤となる知見を与えることが期待される. さらに, 学習手法に関連して, 近年の深層学習の発展によって注目を集めている知識転移, 特に継続学習において, 汎化誤差解析を実施した. 具体的にはNTKレジームにおける継続学習の汎化性能をレプリカ解析によって行い, 知識転移が性能の劣化なく機能するためには, 学習するタスクの類似度だけでなく, タスク間の訓練サンプル数の均衡が重要であることを明らかにした. 成果は情報系国際会議に採択された. 研究期間全体を通じて実施した研究の成果は, 以上の研究実績とこれまでの概要からわかるように, 遂行予定であった課題の各々で十分な成果を得ることができたといえるだろう.

  • Research Products

    (9 results)

All 2023 2022 Other

All Int'l Joint Research (1 results) Journal Article (3 results) (of which Peer Reviewed: 2 results,  Open Access: 1 results) Presentation (5 results) (of which Invited: 3 results)

  • [Int'l Joint Research] チューリッヒ工科大学(スイス)

    • Country Name
      SWITZERLAND
    • Counterpart Institution
      チューリッヒ工科大学
  • [Journal Article] Deep learning in random neural fields: Numerical experiments via neural tangent kernel2023

    • Author(s)
      Watanabe Kaito、Sakamoto Kotaro、Karakida Ryo、Sonoda Sho、Amari Shun-ichi
    • Journal Title

      Neural Networks

      Volume: 160 Pages: 148~163

    • DOI

      10.1016/j.neunet.2022.12.020

    • Peer Reviewed
  • [Journal Article] Attention in a family of Boltzmann machines emerging from modern Hopfield networks2023

    • Author(s)
      Toshihiro Ota, Ryo Karakida
    • Journal Title

      Neural Computation

      Volume: - Pages: -

  • [Journal Article] Learning Curves for Continual Learning in Neural Networks: Self-Knowledge Transfer and Forgetting2022

    • Author(s)
      Ryo Karakida, Shotaro Akaho
    • Journal Title

      International Conference on Learning Representations

      Volume: - Pages: 1-27

    • Peer Reviewed / Open Access
  • [Presentation] 対角線形ネットにおける勾配正則化の陰的バイアス2023

    • Author(s)
      唐木田亮, 高瀬朝海, 早瀬友裕, 大沢和樹
    • Organizer
      日本物理学会2023年春季大会
  • [Presentation] カーネル法の統計力学的解析とそれによる継続学習の評価2022

    • Author(s)
      唐木田亮
    • Organizer
      統計物理と統計科学のセミナー
    • Invited
  • [Presentation] Neural tangent kernel regimeにおける継続学習の学習曲線2022

    • Author(s)
      唐木田亮
    • Organizer
      日本応用数理学会2022年度年会
    • Invited
  • [Presentation] 継続学習における自己知識転移と忘却2022

    • Author(s)
      唐木田亮
    • Organizer
      第51回統計的機械学習セミナ-
    • Invited
  • [Presentation] 効率的な勾配正則化アルゴリズムとその陰的バイアスの解析2022

    • Author(s)
      唐木田亮, 高瀬朝海, 早瀬友裕, 大沢和樹
    • Organizer
      IBIS2022

URL: 

Published: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi