• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

ロス関数の自動選択アルゴリズムと系列データへの拡張の解析

Research Project

Project/Area Number 16J06659
Research Category

Grant-in-Aid for JSPS Fellows

Allocation TypeSingle-year Grants
Section国内
Research Field Intelligent informatics
Research InstitutionNara Institute of Science and Technology

Principal Investigator

HOLLAND Matthew James (2017)  奈良先端科学技術大学院大学, 情報科学研究科, 特別研究員(DC2)

HOLLAND MATTHEW JAMES (2016)  奈良先端科学技術大学院大学, 情報科学研究科, 特別研究員(DC2)

Project Period (FY) 2016-04-22 – 2018-03-31
Project Status Completed (Fiscal Year 2017)
Budget Amount *help
¥1,600,000 (Direct Cost: ¥1,600,000)
Fiscal Year 2017: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2016: ¥900,000 (Direct Cost: ¥900,000)
Keywords機械学習 / 統計的学習理論 / ロバスト推定 / 確率的最適化
Outline of Annual Research Achievements

本研究では、機械学習アルゴリズムで使われる「フィードバック」に相当する損失関数をデータに応じて自動的に決めていく方法論を築き上げることが目的であった。そのために、計算効率と統計的推定の精度の両立を念頭に入れつつ、新しいアルゴリズムを提案し、その学習能力を理論および数値実験によって解析してきた。以下の2点を中心に研究を行った。

1. 頑健な目的関数を用いた学習機の高速化と安定化:経験損失最小化(ERM)がという学習則は、理論上の知見が多く、実装も簡易であるという利点を持つ一方、データの標本ごとのばらつきや外れ値に対しては敏感で、都合の悪いデータでは性能が大きく低下するという脆弱性もある。ERMの目的関数を改良すべく、外れ値と判断されるデータを破棄するのではなく、その影響を連続的に抑える仕組みと新しい目的関数を高速に最小化する方法を開発し、多種の学習課題において、案手法はERMと同程度の計算量で、より安定的に高い汎化性能を確認した。

2. ロバスト勾配下降法による学習効率の向上:ニューラルネットワークをはじめとして、近年の機械学習手法は自由パラメータが多く、計算コストの抑えやすい勾配降下法(GD)の一種が使われる。しかしながら、GDは先述のERMを実装する上で使われるため、統計的推定の粗さによって、最適化作業が乱されやすくなってしまう。結果として、多くのサンプル数(コスト=データ)と反復回数(コスト=時間)がなければ、良い解には至らない。この弱点を解決して学習効率を上げるために、上記(1.)の知見を踏まえて、GD特有の頑健な設計方法を開発し、実験・理論ともに優れた汎化能力と高い実用性を示した。頑健性を欠くERM系の各手法と比較して、データの分布に依らず性能を保持する能力が長けている。この成果を出発点にして、「推論×計算」の統合的アプローチを様々な問題領域へと展開していく予定である。

Research Progress Status

29年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

29年度が最終年度であるため、記入しない。

Report

(2 results)
  • 2017 Annual Research Report
  • 2016 Annual Research Report
  • Research Products

    (5 results)

All 2017 2016

All Journal Article (2 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (3 results) (of which Int'l Joint Research: 1 results)

  • [Journal Article] Robust regression using biased objectives2017

    • Author(s)
      Holland Matthew J.、Ikeda Kazushi
    • Journal Title

      Machine Learning

      Volume: 106 Issue: 9-10 Pages: 1643-1679

    • DOI

      10.1007/s10994-017-5653-5

    • Related Report
      2017 Annual Research Report
    • Peer Reviewed
  • [Journal Article] Efficient learning with robust gradient descent2017

    • Author(s)
      Holland, Matthew J. and Ikeda, Kazushi
    • Journal Title

      arXiv (Statistics --> Machine Learning)

      Volume: 1 Pages: 1-37

    • Related Report
      2017 Annual Research Report
    • Open Access
  • [Presentation] Robust regression using biased objectives2017

    • Author(s)
      Holland, Matthew J. and Ikeda, Kazushi
    • Organizer
      ECML-PKDD (European Conference on Machine Learning and Principles and Practice of Knowledge Discovery)
    • Related Report
      2017 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Alternative targets for building better learners2016

    • Author(s)
      Matthew J. Holland and Kazushi Ikeda
    • Organizer
      19th Information-Based Induction Sciences Workshop (IBIS), 2016
    • Place of Presentation
      Kyoto, Japan (京都大学百周年時計台記念館)
    • Year and Date
      2016-11-16
    • Related Report
      2016 Annual Research Report
  • [Presentation] Stabilization of learning algorithms and optimal suppression of noise2016

    • Author(s)
      Matthew J. Holland and Kazushi Ikeda
    • Organizer
      30th Annual Conference of the Japan Society of Artificial Intelligence, 2016
    • Place of Presentation
      Kitakyushu, Japan (北九州国際会議場)
    • Year and Date
      2016-06-06
    • Related Report
      2016 Annual Research Report

URL: 

Published: 2016-05-17   Modified: 2024-03-26  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi