• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

縮小推定を導入した貪欲法の下でのモデル選択規準についての研究

研究課題

研究課題/領域番号 18K11433
研究種目

基盤研究(C)

配分区分基金
応募区分一般
審査区分 小区分61030:知能情報学関連
研究機関三重大学

研究代表者

萩原 克幸  三重大学, 教育学部, 教授 (60273348)

研究期間 (年度) 2018-04-01 – 2021-03-31
研究課題ステータス 完了 (2020年度)
配分額 *注記
2,990千円 (直接経費: 2,300千円、間接経費: 690千円)
2020年度: 780千円 (直接経費: 600千円、間接経費: 180千円)
2019年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2018年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
キーワードスパース学習 / 階層型ニューラルネット / モデル選択 / 正則化 / 縮小推定 / SURE / thresholding / LASSO / Thresholding法 / ニューラルネットワーク / スパース正則化 / 貪欲法
研究成果の概要

本研究では、階層型ニューラルネットやスパース学習に共通するモデル選択の問題を扱う。特に、ここでは、正則化・縮小推定の下でのモデル選択を考えた。まず、スパース学習において、正則化法であるLASSOのバイアス問題を解決するスケーリング法を考え、その下でのモデル選択規準を導出し、応用上の妥当性を数値的に確認した。さらに、スケーリング法を利用して、ノンパラメトリック直交回帰の下での統一的なモデリング法を与えるとともに、その汎化性を理論的に解析した。一方で、階層型ニューラルネットについては、モデル選択に関係して、その深層化による学習の傾向とオーバーフィッテイングの関係を調べた。

研究成果の学術的意義や社会的意義

最近、機械学習分野では、深層学習およびスパース学習という二つのキーワードが注目されており、社会的にもインパクトを与えているが、モデル選択の問題はまだ研究が続いている。これらは独立に発展しているが、深層学習の基本である階層型のニューラルネットとスパース学習は、いずれも、学習によって選択できる関数達の線形結合により構成されるモデルを考えているという共通点をもつ。これまでの研究で、こうしたモデルを貪欲法の下で学習した場合、予測誤差の推定値がモデル選択規準として応用可能な形にならないことが知られている。本研究は、この問題を解決するために、縮小推定を導入した下でのモデル選択を考えるものである。

報告書

(4件)
  • 2020 実績報告書   研究成果報告書 ( PDF )
  • 2019 実施状況報告書
  • 2018 実施状況報告書
  • 研究成果

    (7件)

すべて 2021 2019 2018

すべて 雑誌論文 (4件) (うち国際共著 1件、 査読あり 1件、 オープンアクセス 1件) 学会発表 (3件) (うち国際学会 2件)

  • [雑誌論文] Bridging between soft and hard thresholding by scaling2021

    • 著者名/発表者名
      Katsuyuki Hagiwara
    • 雑誌名

      arXiv:2104.09703

      巻: arXiv:2104.09703 ページ: 1-10

    • 関連する報告書
      2020 実績報告書
  • [雑誌論文] A Model Selection Criterion for LASSO Estimate with Scaling2019

    • 著者名/発表者名
      Katsuyuki Hagiwara
    • 雑誌名

      Proceedings of Neural Information Processing 26th International Conference

      巻: II ページ: 248-259

    • 関連する報告書
      2019 実施状況報告書
    • 査読あり / 国際共著
  • [雑誌論文] On an improvement of LASSO by scaling2018

    • 著者名/発表者名
      Katsuyuki Hagiwara
    • 雑誌名

      arXiv:1808.07260

    • 関連する報告書
      2018 実施状況報告書
    • オープンアクセス
  • [雑誌論文] On a Fitting of a Heaviside Function by Deep ReLU Neural Networks2018

    • 著者名/発表者名
      Hagiwara Katsuyuki
    • 雑誌名

      L. Cheng et al. (Eds.): ICONIP 2018, LNCS 11301

      巻: I ページ: 59-69

    • DOI

      10.1007/978-3-030-04167-0_6

    • ISBN
      9783030041663, 9783030041670
    • 関連する報告書
      2018 実施状況報告書
  • [学会発表] A model selection criterion for LASSO estimate with scaling2019

    • 著者名/発表者名
      Katsuyuki Hagiwara
    • 学会等名
      電子情報通信学会 情報論的学習理論と機械学習研究会
    • 関連する報告書
      2019 実施状況報告書
  • [学会発表] A Model Selection Criterion for LASSO Estimate with Scaling2019

    • 著者名/発表者名
      Katsuyuki Hagiwara
    • 学会等名
      ICONIP2019
    • 関連する報告書
      2019 実施状況報告書
    • 国際学会
  • [学会発表] On a Fitting of a Heaviside Function by Deep ReLU Neural Networks2018

    • 著者名/発表者名
      Katsuyuki Hagiwara
    • 学会等名
      ICONIP2018
    • 関連する報告書
      2018 実施状況報告書
    • 国際学会

URL: 

公開日: 2018-04-23   更新日: 2022-01-27  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi