• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

深層学習の数理と応用

計画研究

研究領域「学習物理学」の創成-機械学習と物理学の融合新領域による基礎物理学の変革
研究課題/領域番号 22H05116
研究種目

学術変革領域研究(A)

配分区分補助金
審査区分 学術変革領域研究区分(Ⅱ)
研究機関国立研究開発法人理化学研究所

研究代表者

田中 章詞  国立研究開発法人理化学研究所, 革新知能統合研究センター, 上級研究員 (20791924)

研究分担者 唐木田 亮  国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 主任研究員 (30803902)
瀧 雅人  立教大学, 人工知能科学研究科, 准教授 (70548221)
研究期間 (年度) 2022-06-16 – 2027-03-31
研究課題ステータス 交付 (2025年度)
配分額 *注記
101,010千円 (直接経費: 77,700千円、間接経費: 23,310千円)
2025年度: 20,280千円 (直接経費: 15,600千円、間接経費: 4,680千円)
2024年度: 20,280千円 (直接経費: 15,600千円、間接経費: 4,680千円)
2023年度: 19,760千円 (直接経費: 15,200千円、間接経費: 4,560千円)
2022年度: 18,980千円 (直接経費: 14,600千円、間接経費: 4,380千円)
キーワード深層学習 / 機械学習
研究開始時の研究の概要

ここ十数年のうちに起こった機械学習(Machine Learning)の技術の劇的な発展のうちの多くが、深層学習(Deep Learning)の手法によるものであることは疑いの余地がないが、それにもかかわらず深層学習は従来の統計的機械学習の常識から見ると理論保証が難しいこともよく知られた事実である。本研究では従来の機械学習の理論研究手法に加え、物理学からもたらされた知見を結合し、深層学習の理論/応用の両方にさらなる深い理解、発展をもたらすことを目的とする。

研究実績の概要

計画研究班がオーガナイザーとなり、数名の有志を募り、最近の機械学習に関する論文についての勉強会(論文報告会)を開催することで、近年の研究動向を共有した。また、本領域が主催する計算物理に関する勉強会(計算物理春の学校2023)にて、田中が生成モデルに関する入門講義を、瀧が深層学習に関する入門講義を、最近の動向も含めて行った。これに加え、本領域が主催する勉強会(物理屋のための機械学習講義)にて、田中が最適輸送理論入門の講義を行なった。各分担者の個別の研究実績は以下のようになっている:

【田中】:本領域の他の計画研究班との活動としては、物理応用への論文(格子ゲージ理論への機械学習技術の応用)を出版した。また、深層生成モデルと最適輸送に関する研究講演と、近年注目を集めている拡散モデルを含む深層生成モデルのサーベイを行った。
【瀧】:本年度は、Transformerに基づくコンピュータビジョンモデルの研究、およびその敵対的攻撃や分布シフトに対する堅牢性の調査などを行い、結果を発表した。特に現在注目を集めているMetaFormerと呼ばれる深層学習モデルに対象を絞って研究した。
【唐木田】:継続学習における知識転移を統計力学的解析(レプリカ法)で特徴づけた研究成果を発表した (Karakida & Akaho 2022). また, 生体の神経回路から着想をえた, 相関のある結合でのNTK回帰 (Watanabe et al, 2023), 注意機構のあるボルツマンマシン (Ota & Karakida 2023)の開発を行い, 論文成果を得た.

現在までの達成度 (区分)
現在までの達成度 (区分)

2: おおむね順調に進展している

理由

【田中】:近年の生成モデルの潮流として、ランジュバン動力学に代表される確率的な更新を何度か適用する手法が挙げられるが、いくつかのアルゴリズムを試した結果、更新の適用回数を増やすと生成クオリティが向上するものの、当然ではあるが計算コストがかかるため時間を要するというトレードオフ関係がある。このことについて数理的なアプローチをいくつか試している。
【瀧】:現在Transformerの発展を受け、コンピュータビジョンモデルの性能向上が続いている。その一方、モデルの敵対的事例に対する堅牢性は十分に改善していない。そこで現在は、最新のコンピュータビジョンモデルの改良を行いながら、その堅牢性への効果を調査している。
【唐木田】:継続学習の解析は引き続き遂行し, より詳細な汎化誤差増減のサンプル数依存性の理解が統計力学的解析から得られている. また, 学習レジームの選択が学習力学に依存する可解モデルにおいて, 深層学習における勾配正則化の解析を進めてプレプリントと論文投稿を行った. 来年度の採択が期待される.

今後の研究の推進方策

【田中】:拡散モデルが今日では画像生成を始めとしたタスクで強力なパフォーマンスを示しているが、この手の確率的反復更新を用いた機械学習モデルは、反復される出力を「自己反省」プロセスと見ると、画像生成タスクに限るものではないと思われ、より広いタスクに使うことが期待される。今後は画像生成に限らずより広い応用先を見据えていく。
【瀧】:自然言語処理における研究の進展を受け、コンピュータビジョンにおいてもTransformerの重要性は増すばかりである。そこで引き続きTransformer/MetaFormerという先端的ビジョンモデルに焦点を絞り、視覚モデルの敵対的事例に関する研究を継続する。
【唐木田】:注意機構のあるボルツマンマシンの研究は今後の研究の方向性を広げるだろう. この研究は, 単層の注意機構と連想記憶モデル (Hopfieldモデル) の対応に着目し, その学習を与えた. 注意機構は深層モデルの重要な構成要素であり, より現実的なself-attention構造を反映した連想記憶あるいはボルツマンマシンの解明は統計力学的にも興味深い方向性だろう.

報告書

(1件)
  • 2022 実績報告書
  • 研究成果

    (14件)

すべて 2023 2022

すべて 雑誌論文 (5件) (うち査読あり 5件、 オープンアクセス 3件) 学会発表 (9件) (うち国際学会 2件、 招待講演 4件)

  • [雑誌論文] Self-learning Monte Carlo for non-Abelian gauge theory with dynamical fermions2023

    • 著者名/発表者名
      Nagai Yuki、Tanaka Akinori、Tomiya Akio
    • 雑誌名

      Physical Review D

      巻: 107 号: 5 ページ: 1-16

    • DOI

      10.1103/physrevd.107.054501

    • 関連する報告書
      2022 実績報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Deep learning in random neural fields: Numerical experiments via neural tangent kernel2023

    • 著者名/発表者名
      Watanabe, Kaito and Sakamoto, Kotaro and Karakida, Ryo and Sonoda, Sho and Amari, Shun-ichi
    • 雑誌名

      Neural Networks

      巻: 160 ページ: 148

    • DOI

      10.1016/j.neunet.2022.12.020

    • 関連する報告書
      2022 実績報告書
    • 査読あり
  • [雑誌論文] Attention in a family of Boltzmann machines emerging from modern Hopfield networks2023

    • 著者名/発表者名
      Ota, Toshihiro and Karakida, Ryo
    • 雑誌名

      Neural Computation

      巻: in press

    • 関連する報告書
      2022 実績報告書
    • 査読あり
  • [雑誌論文] Learning Curves for Continual Learning in Neural Networks: Self-Knowledge Transfer and Forgetting2022

    • 著者名/発表者名
      Karakida, Ryo and Shotaro, Akaho
    • 雑誌名

      International Conference on Learning Representations (ICLR)

      巻: なし ページ: 1-27

    • 関連する報告書
      2022 実績報告書
    • 査読あり / オープンアクセス
  • [雑誌論文] Sequencer: Deep LSTM for Image Classification2022

    • 著者名/発表者名
      Yuki Tatsunami, Masato Taki
    • 雑誌名

      Neural Information Processing Systems (NeurIPS 2022)

      巻: なし ページ: 1-14

    • 関連する報告書
      2022 実績報告書
    • 査読あり / オープンアクセス
  • [学会発表] 識別器による最適輸送2023

    • 著者名/発表者名
      田中章詞
    • 学会等名
      最適輸送とその周辺 - 機械学習から熱力学的最適化まで
    • 関連する報告書
      2022 実績報告書
    • 招待講演
  • [学会発表] 物理学から見た深層学習2023

    • 著者名/発表者名
      田中章詞
    • 学会等名
      日本物理学会 2023年春季大会
    • 関連する報告書
      2022 実績報告書
  • [学会発表] 対角線形ネットにおける勾配正則化の陰的バイアス2023

    • 著者名/発表者名
      唐木田亮, 高瀬朝海, 早瀬友裕, 大沢和樹
    • 学会等名
      日本物理学会 2023年春季大会
    • 関連する報告書
      2022 実績報告書
  • [学会発表] Learning Curves for Continual Learning in Neural Networks: Self-Knowledge Transfer and Forgetting2022

    • 著者名/発表者名
      Karakida, Ryo and Akaho, Shotaro
    • 学会等名
      International Conference on Learning Representations (ICLR)
    • 関連する報告書
      2022 実績報告書
    • 国際学会
  • [学会発表] カーネル法の統計力学的解析とそれによる継続学習の評価2022

    • 著者名/発表者名
      唐木田亮
    • 学会等名
      統計物理と統計科学のセミナー
    • 関連する報告書
      2022 実績報告書
    • 招待講演
  • [学会発表] Neural tangent kernel regimeにおける継続学習の学習曲線2022

    • 著者名/発表者名
      唐木田亮
    • 学会等名
      日本応用数理学会2022年度年会
    • 関連する報告書
      2022 実績報告書
    • 招待講演
  • [学会発表] 継続学習における自己知識転移と忘却2022

    • 著者名/発表者名
      唐木田亮
    • 学会等名
      第51回統計的機械学習セミナー(オンライン)
    • 関連する報告書
      2022 実績報告書
    • 招待講演
  • [学会発表] 効率的な勾配正則化アルゴリズムとその陰的バイアスの解析2022

    • 著者名/発表者名
      唐木田亮, 高瀬朝海, 早瀬友裕, 大沢和樹
    • 学会等名
      IIBIS2022
    • 関連する報告書
      2022 実績報告書
  • [学会発表] Sequencer: Deep LSTM for Image Classification2022

    • 著者名/発表者名
      Yuki, Tatsunami and Masato, Taki
    • 学会等名
      Neural Information Processing Systems (NeurIPS 2022)
    • 関連する報告書
      2022 実績報告書
    • 国際学会

URL: 

公開日: 2022-06-20   更新日: 2025-06-20  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi