研究実績の概要 |
グラフ埋め込みでは主にベクトル値ニューラルネット(Neural Network, NN)の内積(Inner Product Similarity, IPS)が利用されている.本研究ではまず,特徴量の次元が十分に高ければIPSだけで非常に広いクラスの類似度を表現できることを証明した.NN自体の表現定理はよく知られているが,NNにより得られた特徴量ベクトルの内積が高い表現力を持つことはこれまで理論的に示されておらず,近年急速に発展している,NNを基にしたグラフ埋め込み一般の研究にも応用できる.さらに,IPSを拡張したShifted IPS (SIPS)を提案し,SIPSはIPSより高い表現力を持つことを示した.本成果をまとめた論文はICML Theoretical Foundation and Application of Deep Generative Models (TADGM)ワークショップに採択され,さらに近似誤差などを理論的に評価した論文が機械学習分野でのトップ国際会議の一つであるAISTATS2019に採択されている.SIPSを更に拡張したWeighted Inner Product Similarity (WIPS)についてまとめた論文を現在国際会議に投稿中である.
グラフ埋め込みでは,グラフの各ノードに関連付けられたデータベクトルと,ノード間のリンクの重みを利用して各ノードの特徴ベクトルを計算する.その際,計算される特徴ベクトルはリンクの重みに含まれるノイズに影響を受けやすい.そこで,統計学分野で度々用いられている,ロバストなβ-divergenceを利用することで,ノイズにロバストなグラフ埋め込みを提案し,そのロバスト性を理論的に示した.本成果は機械学習のトップ国際会議の一つであるAISTATS 2019に採択されている.
|