Learning Laplacian Matrix in Smooth Graph Signal Representationsを読んだのでメモ
はじめに
Learning Laplacian Matrix in Smooth Graph Signal Representationsを読んだのでメモ.
気持ち
データの構造をグラフで表現する際に,一般的にはgeographicalもしくはsocial friendshipなどに基づいてグラフ構造を決定する.ただこのような決め方は常に良い方法とは言えない,またはこのようなグラフ構造の導入が常にできるとは限らない.なので観測されたデータから学習ベースでグラフ構造を決めようというのがこの論文のゴール.ただしデータサンプルからグラフ構造の決定は基本的にはill-posed problemなのでグラフの滑らかさを使ってうまく扱う方法を提案.
Smooth graph signals
まず滑らかなグラフとは何かというところから.ここではノード数の重み付き無向グラフを考える.はそれぞれグラフのノードとエッジとエッジが持つ正の重みを表す.を重み付き隣接行列,を度数行列とすれば非正規化グラフラプラシアンは次のように表現できる.
は固有値分解可能なため固有値固有ベクトルを使って次のように表現できる.
また,の最小固有値は0でその個数はグラフのconnected componentsの数に一致する.
ここでグラフ上のグラフ信号のsmoothnessは次の2次形式で測ることができる.
は頂点を結ぶエッジの重みでは各頂点の信号の値.つまりエッジの重みを使って重みづけられたノード間の信号の変化分の大きさが小さいほどグラフは滑らかであるということ.
グラフラプラシアンの細かい話は以前勉強したメモがあるのでそちらを参照.
Representation via factor analysis model
ここでは因子分析に基づくsmooth graph signalsのための表現モデルを提案する.factor analysis modelは線形モデルの一種で,今回は次のモデルを考える.
は観測されたグラフ信号の表現で,は潜在変数で固有ベクトル行列を通してをコントロールする.はの平均.ここでは雑音は等方性であるとし,平均0,分散の多変量ガウス分布を仮定する.よっての確率密度関数は次のようになる.
今回のモデルは一般的な因子分析モデルのグラフ信号への一般化になっていて,重要となるのはの固有ベクトルで表現される表現行列の選択.選び方には二つの観点があって,一つはグラフのトポロジーを反映したものを探すことで,もう一つは表現行列がグラフのフーリエ基底として解釈可能であるということ.なのでの固有ベクトルは表現行列の良い候補になる.
今回はクラシカルな因子分析モデルに従って潜在変数をガウシアンと仮定.もっと言えばここではガウシアンを平均0,精度行列をの固有値とする以下の形で定義する.
はのムーアペンローズの擬似逆行列.の固有値はグラフの周波数を表しているため,低周波ほどエネルギーを持つということを暗に仮定していること.今までの関係を用いればの条件付き確率との確率は次のように表現可能.
ただしの関係を満たす.
Learning framework
観測との事前分布が与えられたとし,のMAP推定を行う.するとのMAP推定は次のように表される.
は雑音と潜在変数の確率密度関数を表し,はが与えられた時のの条件付き確率密度関数.ここでそれぞれガウス分布を仮定すれば次のように書き直せる.
は定数でノイズの無い状況においては解は.または直交行列なのでにおいてが成り立つので以下の最小化問題へと書き直せる.
すなわちの特性からこの最小化問題はグラフの信号が滑らかになるような解を導く.
ここでグラフ構造は未知であるためこの最小化問題は潜在変数と表現行列との事前分布に対する精度行列を変数に持つ.すなわち次の最小化問題として表される.
さらにという変数変換を用いれば次のようにかける.
Learning algorithm
最終的に得られた最小化問題を行列形式で書き直すと次のようになる.
は個のデータを並べたもので,は正の正則化パラメータ.この論文ではこの最小化問題をとの交互最適化によって解く.
に関する最小化問題はinterior point methodsなどで効果的に解けるがここではADMMを使ったとのこと.またに関しては次のclosed formな解がある.
まとめ
最小化問題を解くのにグラフラプラシアンの制約が面倒な印象.この辺の話はGCNとかとは組み合わさらないのか.