機械学習とかコンピュータビジョンとか

CVやMLに関する勉強のメモ書き。

GAN

Prescribed Generative Adversarial Networksを読んだのでメモ

GAN

はじめに Prescribed Generative Adversarial Networksを読んだのでメモ. 気持ち GANの問題の一つであるmode collapseとモデル分布(生成分布)が陽に定義されておらず尤度等の計算ができないという2つの問題にアプローチした論文.mode collapseはモデルの学…

SinGAN: Learning a Generative Model from a Single Natural Imageを読んだのでメモ

はじめに SinGAN: Learning a Generative Model from a Single Natural Imageを読んだのでメモ. 一言で言えば1枚の学習画像からGANを学習するという研究. Method 目標は一枚の学習画像のinternal statistics(1枚の画像が従う分布という理解)をGANによって…

ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ

はじめに ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ. 気持ち InfoGANがclass-imbalancedなデータに対してうまく(離散の)潜在表現をdisentangleできないという課題に注目し,この論文ではそ…

TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ

はじめに TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち Unsupervised Image-to-Image Translationはappearanceが大きく違う二つのdomain間の変換は難しいとされてきた.この論文では画像中のappearanceとge…

Few-Shot Unsupervised Image-to-Imge Translationを読んだのでメモ

はじめに Few-Shot Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち 従来のimage-to-image translationはターゲットとなるクラスの画像が大量に必要となっていた.しかし,人間が同様のタスクを行おうと思った際には少量のデータで十分に…

DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ

はじめに DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ. 気持ち Conditional GANのmode collapseを解決しようというもの.cGANはconditionに対して決定的な出力を出してしまうことが多々ある,すなわちstochasticな要…

Self-Supervised Generative Adversarial Networksを読んだのでメモ

GAN

はじめに Self-Supervised Generative Adversarial Networksを読んだのでメモ。 気持ち まず,GAN関係なしにNeural Netは識別タスクにおいて,識別の環境が動的に変化する(タスクが変化する)と前の識別境界を忘れるという問題がある.この問題はGANのdiscr…

TGANv2: Efficient Training of Large Models for Video Generation with Multiple Subsampling Layersを読んだのでメモ

GAN

はじめに TGANv2: Efficient Training of Large Models for Video Generation with Multiple Subsampling Layersを読んだのでメモ.動画生成のGANは計算コストが大きくなってしまうため解像度の低い動画の生成しかできていなかった点を解決したという論文. …

Flow-GAN: Combining Maximum Likelihood and Adversarial Learning in Generative Modelsを読んだのでメモ

はじめに Flow-GAN: Combining Maximum Likelihood and Adversarial Learning in Generative Modelsを読んだのでメモ.簡単に言えばGANのgeneratorをflow-basedなモデルに置き換えて密度推定もできるようにしたというもの. notation データの分布をとし,パ…

MINEを使ってinfoGANを実装した

はじめに Mutual information neural estimation(MINE)を使ってinfoGANを実装したのでメモ.MINEに関してのメモはこちら. 設定 オリジナルのinfoGANと同様にMNISTで離散変数1つ,連続変数2つでgeneratorを学習した.infoGANの特徴である相互情報量最大化…