研究課題/領域番号 |
16J06659
|
研究種目 |
特別研究員奨励費
|
配分区分 | 補助金 |
応募区分 | 国内 |
研究分野 |
知能情報学
|
研究機関 | 奈良先端科学技術大学院大学 |
研究代表者 |
HOLLAND Matthew James (2017) 奈良先端科学技術大学院大学, 情報科学研究科, 特別研究員(DC2)
HOLLAND MATTHEW JAMES (2016) 奈良先端科学技術大学院大学, 情報科学研究科, 特別研究員(DC2)
|
研究期間 (年度) |
2016-04-22 – 2018-03-31
|
研究課題ステータス |
完了 (2017年度)
|
配分額 *注記 |
1,600千円 (直接経費: 1,600千円)
2017年度: 700千円 (直接経費: 700千円)
2016年度: 900千円 (直接経費: 900千円)
|
キーワード | 機械学習 / 統計的学習理論 / ロバスト推定 / 確率的最適化 |
研究実績の概要 |
本研究では、機械学習アルゴリズムで使われる「フィードバック」に相当する損失関数をデータに応じて自動的に決めていく方法論を築き上げることが目的であった。そのために、計算効率と統計的推定の精度の両立を念頭に入れつつ、新しいアルゴリズムを提案し、その学習能力を理論および数値実験によって解析してきた。以下の2点を中心に研究を行った。
1. 頑健な目的関数を用いた学習機の高速化と安定化:経験損失最小化(ERM)がという学習則は、理論上の知見が多く、実装も簡易であるという利点を持つ一方、データの標本ごとのばらつきや外れ値に対しては敏感で、都合の悪いデータでは性能が大きく低下するという脆弱性もある。ERMの目的関数を改良すべく、外れ値と判断されるデータを破棄するのではなく、その影響を連続的に抑える仕組みと新しい目的関数を高速に最小化する方法を開発し、多種の学習課題において、案手法はERMと同程度の計算量で、より安定的に高い汎化性能を確認した。
2. ロバスト勾配下降法による学習効率の向上:ニューラルネットワークをはじめとして、近年の機械学習手法は自由パラメータが多く、計算コストの抑えやすい勾配降下法(GD)の一種が使われる。しかしながら、GDは先述のERMを実装する上で使われるため、統計的推定の粗さによって、最適化作業が乱されやすくなってしまう。結果として、多くのサンプル数(コスト=データ)と反復回数(コスト=時間)がなければ、良い解には至らない。この弱点を解決して学習効率を上げるために、上記(1.)の知見を踏まえて、GD特有の頑健な設計方法を開発し、実験・理論ともに優れた汎化能力と高い実用性を示した。頑健性を欠くERM系の各手法と比較して、データの分布に依らず性能を保持する能力が長けている。この成果を出発点にして、「推論×計算」の統合的アプローチを様々な問題領域へと展開していく予定である。
|
現在までの達成度 (段落) |
29年度が最終年度であるため、記入しない。
|
今後の研究の推進方策 |
29年度が最終年度であるため、記入しない。
|