研究実績の概要 |
本研究テーマでは,深層学習法の一分野であるグラフニューラルネットワーク(GNN)を対象としている.GNNでは,入力としてグラフの構造とその各ノードの特徴ベクトルが与えられる.その出力は各ノードの表現ベクトルであり,その表現ベクトルが,下流のタスクであるノード分類,リンク予測,グラフ分類などに用いられる. 従来のGNNでは,Over-smoothingの問題があった.Over-smoothingとはGNNの層数を増加させると表現の質が低下する現象であり,その結果として下流のタスクの性能が低下する.この現象を軽減すべく,我々は確率分布の再生性という性質に着目している.本年度は,これに基づく2つの手法を開発し,学会発表等で公開した. 1つ目は,Summarize-GNNと呼ぶ手法である.あるノードvのl層目の表現ベクトルをh(v,l)と書く.h(v,l)は従来のGNNでも計算可能なものである.Summarize-GNNでは,ノードvの表現h(v)をh(v,l)の重み付き線形和,つまh(v)=w(v,1)h(v,1)+w(v,2)h(v,2)+...+w(v,l)h(v,l)とし,w(v,l)をデータから学習する手法である. 2つ目は,DeepGATと呼ぶ手法である.Graph Attention Network (GAT)はGNNの1手法であり,DeepGATはそれを拡張した手法である.各層において,ノードがどのクラスに属するかを予測する.その予測に基づいて各ノードvに対して,隣接ノードのうち,どのノードの表現を畳み込むのかを決定する. いずれの2手法も,確率分布の再生性に基づくと,層数を増やしたとき,各クラスに属するノードの表現の分散が小さくなることが,数理的に保障される.このため,分類性能の向上が望める手法であると言える.
|