TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ
はじめに
TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ.
気持ち
Unsupervised Image-to-Image Translationはappearanceが大きく違う二つのdomain間の変換は難しいとされてきた.この論文では画像中のappearanceとgeometryの情報を分離して考えることで,人と猫のような見た目が大きく違う画像間でのtranslationを可能にしようというもの.
Methodology
基本的な戦略はappearanceとgeometryを表す潜在変数を出す二つのencoder を用意して,それぞれの潜在変数を入力とするdecoderを学習しようというもの.モデル自体はconditional VAEとして構成していて,以下の目的関数がベースとなる.
ここで,は入力画像からgeometryの情報を出力するモデルで,ここでいうgeometryの情報は30点(30チャネルの出力で,各チャネルが1点を表す)からなるheatmapを表す(詳しくは論文の図を参照).
この論文の肝は,の部分で,この項が[tex:Eg(x)]がgeometryの情報を返すことを保証する.
結論から,は以下のように定義される.
はによって得られたgeometryの情報ではそれぞれ点のindexを表す.関数の意味としては各点がある程度の範囲でばらけるようにするもの.はハイパラ.正直これでうまくいくのかという気もするが,上手いこと物体の形状を捉えてくれるらしい.ただ,後半で議論があるよう一筋縄ではいかないらしい.
上でgeometryが保証できたとして,次にappearanceの変換を考える必要がある.細かい議論は置いておくが,CycleGANの戦略を単純に利用するだけではうまくappearanceの変換が効かないとのこと.なので,次のようなcross-domain appearance consistency lossを導入する.
はstyle transferでよく出てくるグラム行列でVGG-16から計算される.とはそれぞれからへのgeometryとappearanceの変換を表す.
もろもろを踏まえて最終的な目的関数は次のようになる.
勘弁してくれという感じ.添字のはそれぞれappearance,geometry,pixel空間での評価を表していて,はcycle-consistency lossとadversarial lossを表す.
まとめ
全体的にこれでうまくいくのかという感想しかないけど,この辺を研究している人からすると普通の感覚なのか.