• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2018 Fiscal Year Research-status Report

深層学習の理論的究明による人工知能技術の革新

Research Project

Project/Area Number 18K19793
Research InstitutionThe Institute of Statistical Mathematics

Principal Investigator

福水 健次  統計数理研究所, 数理・推論研究系, 教授 (60311362)

Co-Investigator(Kenkyū-buntansha) 鈴木 大慈  東京大学, 大学院情報理工学系研究科, 准教授 (60551372)
今泉 允聡  統計数理研究所, 統計思考院, 助教 (90814088)
Project Period (FY) 2018-06-29 – 2021-03-31
Keywords人工知能 / 深層学習 / 理論解析
Outline of Annual Research Achievements

本研究は数理的アプローチによってAI技術の革新をはかろうとするものであり、深層学習の繰り返し更新則の挙動(学習ダイナミクス)を解析することにより,その高い能力の要因を理論的に究明し,その知見に基づいて,はるかに低コストで安定した学習が可能な大自由度学習モデルを開発することを目的としている。研究課題としては、【課題1】深層構造の学習ダイナミクス、【課題2】低コスト学習モデル、【課題3】学習モデルの効率的実装、の3つの主な研究課題を挙げているが、初年度のH30年度は【課題1】深層構造の学習ダイナミクスに注力し、以下の2つの研究成果を得た。
(1)微分不能な点や不連続な点を含む関数を推定する場合の性能を、Fourier展開、スプラインなどの固定基底を持つ関数推定の方法と比較したところ、ReLU活性関数を持つ深層学習がよりよい汎化誤差を示すことを理論的に示した。この結果は機械学習分野のトップ国際会議のひとつである Artificial Intelligence and Statistics (AISTATS 2019)に採択された。
(2)深層学習モデルの局所極小解の構造に関して研究を行った。あるネットワークが極小解となっているとき、そのある層の素子を増加させて大きいなネットワークを構成した際に、もとの関数と同一の入出力関係を持たせる方法を考察し、大きいネットワークが極小/鞍点となるかを考察した。その結果、活性化関数がReLUか滑らかかによってその局所的性質が変化することが理論的に示された。また、その結果を用いると、冗長なネットワークで学習された最適解の汎化誤差が、活性化関数によって異なる振る舞いを持つことが示唆された。現在、この結果を論文にまとめている。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

初年度であるH30年度はおもに【課題1】に注力したが、不連続な関数に対する推定精度の理論解析に関して、従来型の関数推定法に比べて深層学習のよい性能を示唆する興味深い結果が得られ、その成果をまとめた論文が機械学習/人工知能分野でトップクラスの国際会議に採択された。また、深層学習の極小解の理論解析は非常に困難な課題の一つであるが、それに関して理論的に多くの示唆を含んだ結果が得られた。特に、極小解の平たんさをヘッセ行列によって評価することにより、ReLUと滑らかな活性化関数の本質的な相違を明らかにした研究は今までにない理論的結果である。これらのことから、課題1に関しては、計画以上の進展があったと考える。次年度は、課題2を中心に研究を行い、waveletや多重解像度カーネル法などの方法を出発点として、新しい関数推定の方法論を考察していきたい。

Strategy for Future Research Activity

【課題2】低コスト学習モデル、に関しては、多層構造を持つことの本質的な意味を明らかにするために、Waveletやカーネル法の多層化技術を考察する予定である。特に、Waveletのスパース学習を効率的に行う方法、カーネル法の多くの異なるバンド幅の重ね合わせによる関数空間の利用などを考察し、実用的な計算効率を持つ方法を研究する。
【課題3】学習モデルの効率的実装、に関しては、並列化を前提として、確率勾配法やADMMなどの効率的な最適化法とその発展形を追求することにより、実装までを行う。
実装にあたっては、必要に応じて外部業者への利用などを検討する。

Causes of Carryover

国際会議出張として予算60万円を計画していたが、所属機関の運営費交付金により支出できたため、本科研費の予算を次年度以降の国際会議に充当して、より密な情報収集を行うこととした。また、物品費として計画していたGPUボード購入に関しては、新規製品の発売予定によって次年度以降の価格下落が予想されたため、H30年度は現有している計算資源を活用することとし、R1年以降に複数枚のボード購入をすることによって、研究をより加速できると判断して、使用時期をずらした。

  • Research Products

    (12 results)

All 2019 2018 Other

All Int'l Joint Research (1 results) Journal Article (6 results) (of which Int'l Joint Research: 1 results,  Peer Reviewed: 5 results,  Open Access: 3 results) Presentation (5 results) (of which Int'l Joint Research: 4 results,  Invited: 4 results)

  • [Int'l Joint Research] Cornell University(米国)

    • Country Name
      U.S.A.
    • Counterpart Institution
      Cornell University
  • [Journal Article] A simple method to construct confidence bands in functional linear regression2019

    • Author(s)
      Masaaki Imaizumi and Kengo Kato
    • Journal Title

      Statistica Sinica

      Volume: * Pages: *-*

    • Peer Reviewed / Int'l Joint Research
  • [Journal Article] Statistically Efficient Estimation for Non-Smooth Probability Densities2018

    • Author(s)
      Masaaki Imaizumi, Takanori Maehara, Yuichi Yoshida
    • Journal Title

      Proceedings of Machine Learning Research Workshop & Conference Proceedings (AISTATS 2018)

      Volume: 84 Pages: 978-987

    • Peer Reviewed
  • [Journal Article] Deep Neural Networks Learn Non-Smooth Functions Effectively2018

    • Author(s)
      今泉允聡、福水 健次
    • Journal Title

      2018年度統計関連学会連合大会講演予稿集

      Volume: ? Pages: *-*

  • [Journal Article] Functional gradient boosting based on residual network perception2018

    • Author(s)
      Atsushi Nitanda and Taiji Suzuki
    • Journal Title

      Proceedings of the 35th International Conference on Machine Learning: PMLR

      Volume: 80: Pages: 3819--3828

    • Peer Reviewed / Open Access
  • [Journal Article] Gradient Layer: Enhancing the Convergence of Adversarial Training for Generative Models2018

    • Author(s)
      Atsushi Nitanda and Taiji Suzuki
    • Journal Title

      AISTATS2018, Proceedings of Machine Learning Research

      Volume: 84 Pages: 454--463

    • Peer Reviewed / Open Access
  • [Journal Article] Fast generalization error bound of deep learning from a kernel perspective2018

    • Author(s)
      Taiji Suzuki
    • Journal Title

      AISTATS2018, Proceedings of Machine Learning Research

      Volume: 84 Pages: 1397--1406

    • Peer Reviewed / Open Access
  • [Presentation] Generalization error of deep learning with connection to sparse estimation in function space2019

    • Author(s)
      Taiji Suzuki:
    • Organizer
      Workshop on Functional Inference and Machine Intelligence
    • Int'l Joint Research / Invited
  • [Presentation] Compressing deep neural network and its generalization error analysis via kernel theory2019

    • Author(s)
      Taiji Suzuki
    • Organizer
      Reinforcement Learning & Biological Intelligence, learning from biology, learning for biology
    • Int'l Joint Research / Invited
  • [Presentation] Deep Neural Networks Learn Non-Smooth Functions Effectively2018

    • Author(s)
      Masaaki Imaizumi and Kenji Fukumizu
    • Organizer
      ICML 2018 Workshop on Theory of Deep Learning
    • Int'l Joint Research
  • [Presentation] 汎化誤差評価によるGANの理論解析2018

    • Author(s)
      今泉 允聡、福水 健次
    • Organizer
      第21回情報論的学習理論ワークショップ (IBIS 2018)
    • Invited
  • [Presentation] Adaptivity of Deep ReLU Network for Learning in Besov Spaces.2018

    • Author(s)
      Taiji Suzuki
    • Organizer
      Forum "Math-for-Industry" 2018 - Big Data Analysis, AI, Fintech, Math in Finances and Economics
    • Int'l Joint Research / Invited

URL: 

Published: 2019-12-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi