研究概要 |
大規模な学習機械を構成する際の計算量の爆発と汎化能力の低下を避ける手法として集団学習があるが,その中でも逐次的に例題の重みを変えながら異なる学習機械を作り統合するブースティング(boosting)がその実用性から注目を集めている.Boostingを最適化問題における双対問題として捉え,学習モデルの作る空間の幾何学的な構造に基づいてその性質を論じるという試みはあるものの,その推定量としての統計的性質に関する考察は未だ不十分である.このアルゴリズムを考察するために,指数型損失に基づく幾何学的考察を拡張し,情報幾何学の枠組においてBregman divergenceのもとに自然に導入される,より一般的な学習モデルの空間の構造を考察した.Bregman divergenceによってこの空間に入る統計的な距離に基づいてcontaminantモデルを用いた雑音や外れ値に対する頑健性,学習データとモデルの大きさの依存する漸近有効性,Bregman divergenceに用いる凸関数に関するBayes最適性と一致性,アルゴリズムの停止条件の幾何学的な解釈などの観点からアルゴリズムの統計的な性質を議論した.
|