機械学習とかコンピュータビジョンとか

CVやMLに関する勉強のメモ書き。

2019-05-01から1ヶ月間の記事一覧

Exploration via Flow-Based Intrinsic Rewardsを読んだのでメモ

はじめに Exploration via Flow-Based Intrinsic Rewardsを読んだのでメモ. Flow-based Intrinsic Curiosity Module (FCIM) 最近はやりのCuriosityを使った強化学習.ここではoptical flowを利用したintrinsic rewardを提案.手法は非常に単純で,FlowNetラ…

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networksを読んだのでメモ

はじめに EfficientNet: Rethinking Model Scaling for Convolutional Neural Networksを読んだのでメモ.より良いbackbone networkであるEfficientNetを提案.感覚的に持ってたモデルの深さと幅,入力に関する解像度とモデルの精度間の関係をいくつか実験的…

GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ

はじめに GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ.Generative flowを使ってmolecular graphを生成する初めての試みとのこと. GraphNVP Generative Flowの一般的な話は何度か記事にしているのでここでは割愛…

Learning the Depths of Moving People by Watching Frozen Peopleを読んだのでメモ

はじめに Learning the Depths of Moving People by Watching Frozen Peopleを読んだのでメモ. 概要 SfMやmulti-view stereo(MVS)は一般的に移動体のデプスを推定することができない(何らかの仮定が必要).この論文では動体は人のみという仮定をおいて…

Feature Denoising for Improving Adversarial Robustnessを読んだのでメモ

はじめに Feature Denoising for Improving Adversarial Robustnessを読んだのでメモ. 気持ち Figure 1の可視化がモチベーションの全てで,adversarial noiseを加えた画像は元の画像に比べて,CNNの中間的な特徴マップに一種のノイズが含まれる.そのため,…

Graph U-Netsを読んだのでメモ

はじめに Graph U-Netsを読んだのでメモ. 概要 Graph Neural NetworkでU-Netを作りたいというもの.そのためにgraph Pooling (gPool)とgraph Unpool (gUnpool)を提案する. Graph Pooling Layer ここでの目標は,グラフから情報量の多いノードをサンプリン…

Unsupervised Data Augmentationを読んだのでメモ

はじめに Unsupervised Data Augmentationを読んだのでメモ. 気持ち ここ最近のsemi-supervised learningの基本的な考え方は,ラベルなしデータに対して適当な摂動を加えた出力と元の出力の出力がなるべく同じになるようにするというもの. この研究では,…

TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ

はじめに TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち Unsupervised Image-to-Image Translationはappearanceが大きく違う二つのdomain間の変換は難しいとされてきた.この論文では画像中のappearanceとge…

Few-Shot Unsupervised Image-to-Imge Translationを読んだのでメモ

はじめに Few-Shot Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち 従来のimage-to-image translationはターゲットとなるクラスの画像が大量に必要となっていた.しかし,人間が同様のタスクを行おうと思った際には少量のデータで十分に…

DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ

はじめに DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ. 気持ち Conditional GANのmode collapseを解決しようというもの.cGANはconditionに対して決定的な出力を出してしまうことが多々ある,すなわちstochasticな要…

Segmentation is All You Needを読んだのでメモ

はじめに Segmentation is All You Needを読んだのでメモ.あまりちゃんと読んで無いので読み違いしている部分があるかもしれない. 気持ち Object detectionをする上でbounding boxベースの手法の多くではNMSのような後処理が必要となるが,このような処理…