2010 Fiscal Year Annual Research Report
Project/Area Number |
22700289
|
Research Institution | The University of Tokyo |
Principal Investigator |
鈴木 大慈 東京大学, 大学院・情報理工学系研究科, 助教 (60551372)
|
Keywords | 統計的学習理論 / 機械学習 / 統計数学 |
Research Abstract |
スパース学習のカーネル版であるMKL(Multiple Kernel Learning)を軸にして,その性能に関する統計理論の一般化を行った.パラメトリックなスパース学習で用いられていた理論とノンパラメトリックな学習理論を融合することにより,新しいスパース学習の理論的解析を与えた.ノンパラメトリックな学習理論はカーネル学習を中心に機械学習の理論研究で重要な位置を占めてきた.スパース学習の理論解析はLassoに代表されるパラメトリックなモデルが主であり,そこへノンパラメトリックな理論を持ち込むことにより,MKLのようなノンパラメトリックなスパース学習の解析も可能になる.本研究の一つの目的であるスパース性を少し緩めた手法の理論解析として,MKLを拡張した手法の新しい性能評価を与えた.この研究によりMKLにおいてはパラメトリックな設定では現れない違いが正則化のしかたにより現れることが確認できた.また,我々の導出した性能評価はどの手法も越えられないミニマックスレートを達成していることが証明でき,それからMKLはミニマックスレートの意味で最適性を有することが確認された.また,MKLを拡張したElasticnet型正則化を持つMKLにおいて,真がスパースでないときにどのような正則化パラメータを用いれば最適であるかを理論的に考察した.さらに,MKLにおけるカーネル重みの正則化と関数のノルムに対する正則化の関係をできるだけ一般的な文脈で明らかにした. スパース学習とは異なる文脈において,二乗誤差相互情報量を用いた新しい次元削減の方法を提案し,理論的な性能評価および数値実験において提案手法の有用性を示した.
|
Research Products
(16 results)