1. kernel Bayes’ruleはカーネル法を用いてノンパラメトリックに事後分布のカーネル平均埋め込みを計算する.kernel Bayes’ruleを実現するalgorithmには3種類のvariantsが知られていた.しかしそれらのalgorithmは数値的不安定が報告されていた.そこでGebhardt et.al (2019)はKalman filter algorithmの導出と似た方法でkernel Kalman ruleを提案し,数値的に安定したkernel Bayes’ruleを実現した.kernel Bayes’ruleとkernel Kalman ruleの詳細な比較実験を行い,双方の利点・問題点を調査する研究を行った.お互いの利点を活用したアルゴリズム改良を検討している.
2. カーネル法におけるMaximum Mean Discrepancy(MMD)は確率測度間に距離を定義する.MMDと関係して確率測度間に距離やdivergenceを定義する方法に最適輸送理論がある.最適輸送理論ではコスト関数つき空間で2つの確率測度間の最適輸送経路を計算する.Cututri (2013) は,最適輸送経路の計算量を削減するため,エントロピー制約つき最適輸送(EOT)を導入した.しかしEOTの輸送コストはdivergenceの性質を満たさないことが知られる.Feydy et al.(2019)は,EOTにdivergenceの性質を持たせたSinkhorn divergence (SD) を提案した.しかしFeydy et al. (2019) が導入した修正法はEOTの輸送コストがdivergenceの性質を満たすための唯一の必要条件でない.そこでFeydy et al. (2019)が提案したバイアス修正項を凸結合に拡張した Extended Sinkhorn divergence (ESD)を提案し,拡張後もdivergenceの性質を持つことを数学的に明らかにした.また1次元確率分布における数値実験の結果で,提案法(ESD)が従来法 (SD)より効率的な輸送経路を辿る数値例の存在を示した.今後2次元確率分布や高次元確率分布の最適輸送の数値実験を行い,提案法(ESD)の有効性を検証する.
|