• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2023 Fiscal Year Annual Research Report

機械学習における最適化問題の効率的解法

Research Project

Project/Area Number 23KJ1458
Research InstitutionOsaka University

Principal Investigator

新村 亮介  大阪大学, 基礎工学研究科, 特別研究員(DC2)

Project Period (FY) 2023-04-25 – 2024-03-31
Keywordsスパース推定 / 近接勾配法 / 最適化 / 項目反応理論 / クラスタリング / 凸関数
Outline of Annual Research Achievements

本研究では,スパース推定問題の効率的解法の構築を行った.
一般に変数選択とモデルの学習を同時にできるスパース推定の最適化問題では,近接勾配法や近接ニュートン法といった手法が適用されている.前者では,解への収束が遅いため,時間がかかってしまい,後者では,収束は早いがグループlassoなどの問題では効率が悪くなってしまう.本研究では機械学習の中でも特に,スパース推定の最適化問題を近接勾配法の収束先を求める非線形方程式に帰着することにより,推定値に0が多いというスパース性を利用して,効率的に解を求めるアルゴリズムを提案した.また,目的関数が凸関数である場合について,提案手法を用いることで高速に解が得られることを証明した.さらに,グループlassoなどのスパース推定に適用し,実際に数値実験を行うことで提案手法の有効性を示した.
また,多次元項目反応理論モデルのための単純行列を推定する方法を開発した.提案した方法は,各テスト項目を単一の潜在特性に対応させることができ,結果の解釈を容易にする.また,対応する潜在特性に基づいてテスト項目をクラスタリングすることができる.提案手法の基本的な考え方は,因子分析で提案されているようなprenet(product-based elastic net)ペナルティを用いることである.数値実験により,特に被験者数が少ない場合に,既存のlassoのようなL1ペナルティを用いる方法と比較して,特に被験者数が少ない場合に有効であることを示した.

  • Research Products

    (3 results)

All 2024 2023

All Journal Article (2 results) (of which Peer Reviewed: 2 results,  Open Access: 1 results) Presentation (1 results)

  • [Journal Article] Newton-Type Methods with the Proximal Gradient Step for Sparse Estimation2024

    • Author(s)
      Shimmura Ryosuke、Suzuki Joe
    • Journal Title

      Operations Research Forum

      Volume: 5 Pages: -

    • DOI

      10.1007/s43069-024-00307-x

    • Peer Reviewed
  • [Journal Article] Estimation of a Simple Structure in a Multidimensional IRT Model Using Structure Regularization2023

    • Author(s)
      Shimmura Ryosuke、Suzuki Joe
    • Journal Title

      Entropy

      Volume: 26 Pages: 44~44

    • DOI

      10.3390/e26010044

    • Peer Reviewed / Open Access
  • [Presentation] 近接勾配法による変数選択を用いたニュートン法2023

    • Author(s)
      新村 亮介
    • Organizer
      第37回計算機統計学会

URL: 

Published: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi