• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Mathematics and application of deep learning

Planned Research

Project AreaFoundation of "Machine Learning Physics" --- Revolutionary Transformation of Fundamental Physics by A New Field Integrating Machine Learning and Physics
Project/Area Number 22H05116
Research Category

Grant-in-Aid for Transformative Research Areas (A)

Allocation TypeSingle-year Grants
Review Section Transformative Research Areas, Section (II)
Research InstitutionInstitute of Physical and Chemical Research

Principal Investigator

田中 章詞  国立研究開発法人理化学研究所, 革新知能統合研究センター, 上級研究員 (20791924)

Co-Investigator(Kenkyū-buntansha) 唐木田 亮  国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 主任研究員 (30803902)
瀧 雅人  立教大学, 人工知能科学研究科, 准教授 (70548221)
Project Period (FY) 2022-06-16 – 2027-03-31
Project Status Granted (Fiscal Year 2024)
Budget Amount *help
¥101,010,000 (Direct Cost: ¥77,700,000、Indirect Cost: ¥23,310,000)
Fiscal Year 2025: ¥20,280,000 (Direct Cost: ¥15,600,000、Indirect Cost: ¥4,680,000)
Fiscal Year 2024: ¥20,280,000 (Direct Cost: ¥15,600,000、Indirect Cost: ¥4,680,000)
Fiscal Year 2023: ¥19,760,000 (Direct Cost: ¥15,200,000、Indirect Cost: ¥4,560,000)
Fiscal Year 2022: ¥18,980,000 (Direct Cost: ¥14,600,000、Indirect Cost: ¥4,380,000)
Keywords深層学習 / 機械学習
Outline of Research at the Start

ここ十数年のうちに起こった機械学習(Machine Learning)の技術の劇的な発展のうちの多くが、深層学習(Deep Learning)の手法によるものであることは疑いの余地がないが、それにもかかわらず深層学習は従来の統計的機械学習の常識から見ると理論保証が難しいこともよく知られた事実である。本研究では従来の機械学習の理論研究手法に加え、物理学からもたらされた知見を結合し、深層学習の理論/応用の両方にさらなる深い理解、発展をもたらすことを目的とする。

Outline of Annual Research Achievements

計画研究班がオーガナイザーとなり、数名の有志を募り、最近の機械学習に関する論文についての勉強会(論文報告会)を開催することで、近年の研究動向を共有した。また、本領域が主催する計算物理に関する勉強会(計算物理春の学校2023)にて、田中が生成モデルに関する入門講義を、瀧が深層学習に関する入門講義を、最近の動向も含めて行った。これに加え、本領域が主催する勉強会(物理屋のための機械学習講義)にて、田中が最適輸送理論入門の講義を行なった。各分担者の個別の研究実績は以下のようになっている:

【田中】:本領域の他の計画研究班との活動としては、物理応用への論文(格子ゲージ理論への機械学習技術の応用)を出版した。また、深層生成モデルと最適輸送に関する研究講演と、近年注目を集めている拡散モデルを含む深層生成モデルのサーベイを行った。
【瀧】:本年度は、Transformerに基づくコンピュータビジョンモデルの研究、およびその敵対的攻撃や分布シフトに対する堅牢性の調査などを行い、結果を発表した。特に現在注目を集めているMetaFormerと呼ばれる深層学習モデルに対象を絞って研究した。
【唐木田】:継続学習における知識転移を統計力学的解析(レプリカ法)で特徴づけた研究成果を発表した (Karakida & Akaho 2022). また, 生体の神経回路から着想をえた, 相関のある結合でのNTK回帰 (Watanabe et al, 2023), 注意機構のあるボルツマンマシン (Ota & Karakida 2023)の開発を行い, 論文成果を得た.

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

【田中】:近年の生成モデルの潮流として、ランジュバン動力学に代表される確率的な更新を何度か適用する手法が挙げられるが、いくつかのアルゴリズムを試した結果、更新の適用回数を増やすと生成クオリティが向上するものの、当然ではあるが計算コストがかかるため時間を要するというトレードオフ関係がある。このことについて数理的なアプローチをいくつか試している。
【瀧】:現在Transformerの発展を受け、コンピュータビジョンモデルの性能向上が続いている。その一方、モデルの敵対的事例に対する堅牢性は十分に改善していない。そこで現在は、最新のコンピュータビジョンモデルの改良を行いながら、その堅牢性への効果を調査している。
【唐木田】:継続学習の解析は引き続き遂行し, より詳細な汎化誤差増減のサンプル数依存性の理解が統計力学的解析から得られている. また, 学習レジームの選択が学習力学に依存する可解モデルにおいて, 深層学習における勾配正則化の解析を進めてプレプリントと論文投稿を行った. 来年度の採択が期待される.

Strategy for Future Research Activity

【田中】:拡散モデルが今日では画像生成を始めとしたタスクで強力なパフォーマンスを示しているが、この手の確率的反復更新を用いた機械学習モデルは、反復される出力を「自己反省」プロセスと見ると、画像生成タスクに限るものではないと思われ、より広いタスクに使うことが期待される。今後は画像生成に限らずより広い応用先を見据えていく。
【瀧】:自然言語処理における研究の進展を受け、コンピュータビジョンにおいてもTransformerの重要性は増すばかりである。そこで引き続きTransformer/MetaFormerという先端的ビジョンモデルに焦点を絞り、視覚モデルの敵対的事例に関する研究を継続する。
【唐木田】:注意機構のあるボルツマンマシンの研究は今後の研究の方向性を広げるだろう. この研究は, 単層の注意機構と連想記憶モデル (Hopfieldモデル) の対応に着目し, その学習を与えた. 注意機構は深層モデルの重要な構成要素であり, より現実的なself-attention構造を反映した連想記憶あるいはボルツマンマシンの解明は統計力学的にも興味深い方向性だろう.

Report

(1 results)
  • 2022 Annual Research Report
  • Research Products

    (14 results)

All 2023 2022

All Journal Article (5 results) (of which Peer Reviewed: 5 results,  Open Access: 3 results) Presentation (9 results) (of which Int'l Joint Research: 2 results,  Invited: 4 results)

  • [Journal Article] Self-learning Monte Carlo for non-Abelian gauge theory with dynamical fermions2023

    • Author(s)
      Nagai Yuki、Tanaka Akinori、Tomiya Akio
    • Journal Title

      Physical Review D

      Volume: 107 Issue: 5 Pages: 1-16

    • DOI

      10.1103/physrevd.107.054501

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Deep learning in random neural fields: Numerical experiments via neural tangent kernel2023

    • Author(s)
      Watanabe, Kaito and Sakamoto, Kotaro and Karakida, Ryo and Sonoda, Sho and Amari, Shun-ichi
    • Journal Title

      Neural Networks

      Volume: 160 Pages: 148

    • DOI

      10.1016/j.neunet.2022.12.020

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed
  • [Journal Article] Attention in a family of Boltzmann machines emerging from modern Hopfield networks2023

    • Author(s)
      Ota, Toshihiro and Karakida, Ryo
    • Journal Title

      Neural Computation

      Volume: in press

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed
  • [Journal Article] Learning Curves for Continual Learning in Neural Networks: Self-Knowledge Transfer and Forgetting2022

    • Author(s)
      Karakida, Ryo and Shotaro, Akaho
    • Journal Title

      International Conference on Learning Representations (ICLR)

      Volume: なし Pages: 1-27

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Sequencer: Deep LSTM for Image Classification2022

    • Author(s)
      Yuki Tatsunami, Masato Taki
    • Journal Title

      Neural Information Processing Systems (NeurIPS 2022)

      Volume: なし Pages: 1-14

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed / Open Access
  • [Presentation] 識別器による最適輸送2023

    • Author(s)
      田中章詞
    • Organizer
      最適輸送とその周辺 - 機械学習から熱力学的最適化まで
    • Related Report
      2022 Annual Research Report
    • Invited
  • [Presentation] 物理学から見た深層学習2023

    • Author(s)
      田中章詞
    • Organizer
      日本物理学会 2023年春季大会
    • Related Report
      2022 Annual Research Report
  • [Presentation] 対角線形ネットにおける勾配正則化の陰的バイアス2023

    • Author(s)
      唐木田亮, 高瀬朝海, 早瀬友裕, 大沢和樹
    • Organizer
      日本物理学会 2023年春季大会
    • Related Report
      2022 Annual Research Report
  • [Presentation] Learning Curves for Continual Learning in Neural Networks: Self-Knowledge Transfer and Forgetting2022

    • Author(s)
      Karakida, Ryo and Akaho, Shotaro
    • Organizer
      International Conference on Learning Representations (ICLR)
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research
  • [Presentation] カーネル法の統計力学的解析とそれによる継続学習の評価2022

    • Author(s)
      唐木田亮
    • Organizer
      統計物理と統計科学のセミナー
    • Related Report
      2022 Annual Research Report
    • Invited
  • [Presentation] Neural tangent kernel regimeにおける継続学習の学習曲線2022

    • Author(s)
      唐木田亮
    • Organizer
      日本応用数理学会2022年度年会
    • Related Report
      2022 Annual Research Report
    • Invited
  • [Presentation] 継続学習における自己知識転移と忘却2022

    • Author(s)
      唐木田亮
    • Organizer
      第51回統計的機械学習セミナー(オンライン)
    • Related Report
      2022 Annual Research Report
    • Invited
  • [Presentation] 効率的な勾配正則化アルゴリズムとその陰的バイアスの解析2022

    • Author(s)
      唐木田亮, 高瀬朝海, 早瀬友裕, 大沢和樹
    • Organizer
      IIBIS2022
    • Related Report
      2022 Annual Research Report
  • [Presentation] Sequencer: Deep LSTM for Image Classification2022

    • Author(s)
      Yuki, Tatsunami and Masato, Taki
    • Organizer
      Neural Information Processing Systems (NeurIPS 2022)
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research

URL: 

Published: 2022-06-20   Modified: 2025-04-17  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi