Unsupervised Data Augmentationを読んだのでメモ
はじめに
Unsupervised Data Augmentationを読んだのでメモ.
気持ち
ここ最近のsemi-supervised learningの基本的な考え方は,ラベルなしデータに対して適当な摂動を加えた出力と元の出力の出力がなるべく同じになるようにするというもの.
この研究では,ガウスノイズやdropoutなどより現実的なノイズの方がより良い性能を出せるはずとして,state-of-the-artなdata augmentation手法をadversarial noiseを付与する代わりに利用したらうまくいったというもの.
Unsupervised Data Augmentation (UDA)
正直手法の中身は上で述べたものが全て.一応定式化としては,入力とその教師データをとし,data augmentationによって変形されたデータをとする.教師を持つデータに関しては次の対数尤度の最大化を行う.
教師のないデータは,VATと同様次のKLDを最小化する.
Data augmentationには,state-of-the-artな方法を使ったとのことで,画像の分類問題に関してはAutoAugmentとCutoutとのこと.実験はtext classificationでも行なっているが自分は専門でなく手法を知らないので割愛.
一応,論文ではdata augmentationでsemi-supervised以外に,training signal annealing (TSA)というものも提案している.これは,ラベルつき学習データが少量の場合にモデルがすぐに過学習することを問題視したことから生まれたもので,ある程度高い尤度で予測できる様になったデータは無視をしようというもの.定式化としては次の様になる.
は指示関数で尤度が以下の場合に1,それ以外は0を返す関数.は正規化定数でで計算される.この時を学習の段階に応じてからまでannealingしようというのがTSA.具体的にはでannealingしていく.ただしは0から1までlinear,log,expのどれかで変化させていく(詳しくはFigure 2).
まとめ
アイディアや手法は非常に単純なので追試等はしやすそう.ただ,実験はrealistic evaluation of semi-supervised learning algorithmsに沿ってやったと書いてはあるものの,バッチサイズが全然違っていてムムムというところ.論文から数値を持ってくるなら同じ条件で比較してほしい.こういうのを見ると教師ラベル付きのデータにもaugmentationを適用しているんじゃないかとか思ってしまう(というか定式化をみるとそうなっているので,もしそうならますます比較に意味がなくなってくる).