Semi-Supervised Learning by Augmented Distribution Alignmentを読んだのでメモ
はじめに
Semi-Supervised Learning by Augmented Distribution Alignmentを読んだのでメモ.
気持ち
従来のsemi-supervised learningと違い,この論文はラベルありデータとラベルなしデータ間の経験分布の差を問題視している.semi-supervisedでは基本的に少数のラベルありデータとある程度多量なラベルなしデータを使った学習を想定しているが,ラベルありデータが少ないせいでラベルあり,ラベルなしデータの間で分布に差がでる.なのでここではこの二つの分布を近づける正則化項を使った学習法を提案する.
Augmented Distribution Alignment
ラベルありデータを,ラベルなしデータをとする.目的関数は通常の教師あり学習に分布間の距離を加えた以下の形で定義される.
は学習対象のモデルで,は分布間の距離関数,はハイパーパラメータ.ここでの課題はをどのように求めるかというもので,今回はdomain adaptationで使われる-Divergenceを用いて計算する.-Divergenceは以下で定義される.
で定義され,はそれぞれ特徴抽出部とGANで言うdiscriminatorを表す.今,学習したいモデルはであり,間の差を最小化したいので,の部分は次のように書き直せる.
このmax-min問題は交互最適で解いてもいいが,今回はgradient reverse layer(GRL)を使ったとのこと.GRLはdomain adaptationの文脈で提案されたもので,からへの入力部分で,逆伝播の際に符号を逆転させる,すなわち目的関数に関しては最小化,は最大化するような勾配を計算するようにするもの.
その他mixupの適用とmixupを使っても理論的に問題ないことの証明が続くが割愛.
まとめ
問題の切り口が面白い.概念的にはvatのようのconsistency regularizationの物と独立な気がするので合わせ技も有効な気がする.