研究課題
混合モデルはクラスタリングや確率密度推定に用いられる学習モデルである。前年度までに提案された凸クラスタリング法やカーネルベクトル量子化を含む統一的な学習法について、論文誌上での発表を行った。これまでの研究において、この学習法はレート歪み関数を求める最適化問題と捉えられることが示された。外れ値に対する頑健性のために用いられるイプシロン不感応損失関数についてレート歪み関数の下界および上界評価を与えた。イプシロン不感応損失の重み付け和を最小化する方法を構成し、対応する雑音モデルの混合モデルの学習法を導出し、レート歪み関数の近似計算法を導出した。変分ベイズ法はベイズ推定の効率的な近似法として広く用いられている。特に、データの背後にある潜在的な要因を疎に推定する問題として、近赤外拡散光断層撮影において関連度自動決定を用いた場合や、Webなどの文書解析や購買データの解析法として用いられる潜在ディリクレ配分法に関して、変分ベイズ法の目的関数の振る舞いを詳細に解析し、疎な推定結果が得られる事前分布の設定を明らかにした。また、逐次的に与えられるデータに対し適応的に予測を変化させていく枠組みであるオンライン学習について、データセットの出方についての損失の最悪値によって評価される精度の最適値を効率よく近似する漸近的ミニマックス性の達成条件を考察した。離散データの生成モデルである多項モデルにおいては、漸近的ミニマックス性を達成するためにはデータ数の知識が必要であることを示し、データ数に対する単純な依存性を持つ共役事前分布を用いたベイズ予測により、漸近的ミニマックス性が達成できることを示した。
すべて 2015 2014 その他
すべて 雑誌論文 (5件) (うち査読あり 5件、 オープンアクセス 3件、 謝辞記載あり 4件) 学会発表 (6件) (うち招待講演 2件) 備考 (1件)
Machine Learning
巻: 99(1) ページ: 119-136
10.1007/s10994-014-5467-7
IEEE Transactions on Neural Networks and Learning Systems
巻: 26(5) ページ: 1109-1114
10.1109/TNNLS.2014.2328576
巻: to be assigned ページ: to be paginated
10.1109/TNNLS.2014.2362012
Journal of Machine Learning Research
Neurocomputing
10.1016/j.neucom.2015.01.081
http://www.lisl.cs.tut.ac.jp/wkazuho/index.html