研究実績の概要 |
データから確率モデルのパラメーターを推定する際に, 典型的には尤度最大化基準が用いられるが, 採用するモデルによっては, 「確率である」という制約を満たすための正規化項の計算に大きな計算リソースが必要となることがある. このようなモデルに対し効率的にパラメーターを学習するための方法として, 非正規化モデルを用いた対照学習法がある. 従来の対照学習法は, 正規化された確率モデルを経由せずに推定を行うことが可能であるため計算効率は高い一方で, 分布間距離尺度としてKL-ダイバージェンスを用いているためデータセットに含まれる外れ値ノイズに結果が影響を受けやすいという欠点があった. 本研究では分布間距離尺度として, 頑健な推定結果をもたらすことが知られているγ-ダイバージェンスを適用し, 外れ値ノイズに影響を受けづらい頑健な対照学習法を考案した. 提案した手法に対し理論的な解析を行い, 特定の条件の下で推定量が再下降性(ノイズの大きさが極度に大きくなると推定量への影響が消失する)という好ましい性質を持つことを示した. また, 分布間距離尺度として, β-ダイバージェンスを用いた場合についても考察を行い, 同様の頑健性を持つことを示した. 提案した手法のノイズを含んだデータセットに対する振る舞いを, 様々な状況において数値実験により検証し, 再下降性を含む外れ値ノイズに対する頑健性を確認した.
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
対照学習において, 正規化された確率モデルを経由せずに推定を行う方法を, 従来も用いられる分布間距離尺度とは異なる距離尺度を用いて拡張し, 外れ値ノイズに対して頑健な手法を考案することができた. また提案した手法の統計的性質を理論, 数値実験を用いて検証し明らかにすることができた.
|