ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ
はじめに
ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ.
気持ち
InfoGANがclass-imbalancedなデータに対してうまく(離散の)潜在表現をdisentangleできないという課題に注目し,この論文ではその原因をデータがクラスごとに偏りがないという仮定に基づく潜在変数の事前分布の設定によるものとしている.なのでデータの分布自体を推定パラメータとして扱うことで解決しようというもの.さらにある画像と同じ潜在表現を持つはずの画像に対して同じ潜在表現を割り当てるようにするため,indentity-preseving transformationを用いた正則化を提案.
注意として,infoGANでは連続の潜在表現のdisentangleも行なっていてたがこの論文では離散の表現のみに着目してる.
Approach
を個の異なるクラスを持つラベルなしのデータセットとする.また,クラスの偏り方に関する情報は与えられないものとする.目標は物体のカテゴリのdisentangleされた表現を学習可能な生成モデルを学習することと,生成過程を通して真の偏ったクラス分布を推定すること.
InfoGAN
元となるInfoGANは潜在変数とそこから生成された画像間の相互情報量を最大化することで潜在表現をdisentangleするモデル.実際には相互情報量は基本的なGANを学習する上での正則化として使われる.相互情報量は一般的に計算にが必要とされ,扱いにくいことが多く,InfoGANではを追加のニューラルネットで近似することでの下限を利用して学習を行う.この時の目的関数は次のようになる.
はdiscriminatorでは潜在変数が従う分布のエントロピー.離散の潜在変数を考えた場合,InfoGANではクラス数に対してというカテゴリカル分布を潜在変数の事前分布として学習を行う.そのためエントロピーの項は定数として扱うこととなる.
Elastic-InfoGAN
class imbalancedなデータにおいては上記の一様な分布を仮定することは不適切であるため,ここでは潜在変数の従う分布のパラメータを学習可能なものとし,さらに潜在変数と生成画像の普遍性を導入するためのidentity-preserving transformationを導入する.
Learning the prior distribution
事前分布のパラメータを学習可能とするため,こkではInfoGANにGumbel-Softmaxを導入する.Gumbel-Softmaxはをクラス確率とした時次のような次元ベクトルを微分可能な表現でサンプルする.
はガンベル分布からのサンプルでは得られたベクトルのエントロピーを調整する温度係数.Elastic InfoGANは非常に単純でInfoGANのカテゴリカル分布に対するパラメータを学習可能なパラメータとして置き換えるだけ.
一方で,この離散変数を用いてunsupervisedなクラスタリングを行なった際期待するカテゴリとは違う分類を行う場合がある.その例が論文のFig 3に載せられているが,MNISTの場合数字ごとにクラスタリングを行なって欲しいが数字の傾き具合でクラスタリングが行われてしまっている.
Learning object identities
上記の問題を回避するため,InfoGANにさらなる改良を与える.モデルがlow-levelな要因(ここでは回転や文字の太さ,証明変化などを例としている)ではなくhigh-lebelな情報に焦点を当てるように実画像に対してidentity-preservingな変換を与え,これらの変換に対しが普遍となるような学習を行う.semi-sueprvisedの文脈ではconsistency regularizationとしてよく知られた正則化ではある.
実画像に対して変換を行い新たな画像を得る.これに対して次のような損失を計算する.
は距離関数で,この損失を最小化することで,で表現可能なlow-levelな情報に関してが普遍となり,論文のFig 3で見たような回転具合でのdisentangle等が起きなくなるという主張.ただ,理想的にはは低いエントロピーを持つべきであるが.このまま学習してもエントロピーが高くなってしまう(正直なんで高くなるか論文の言っていることがよくわからなかった).なので次のエントロピーに関する項も損失に加える.
Gumbel-softmaxを利用して計算されるとを加えた以下の目的関数をElastic-InfoGANの目的関数とする.
まとめ
2,3腑に落ちない部分があったが実験的にInfoGANよりは結構よくなってる模様.Gumbel-softmaxに置き換えただけでdisentanglementの質が上がっているという実験結果が示されているが,個人的には分布を推定できたことというより離散から連続へ表現が拡張されたからな気がする.