機械学習とかコンピュータビジョンとか

CVやMLに関する勉強のメモ書き。

2019-01-01から1年間の記事一覧

Graph U-Netsを読んだのでメモ

はじめに Graph U-Netsを読んだのでメモ. 概要 Graph Neural NetworkでU-Netを作りたいというもの.そのためにgraph Pooling (gPool)とgraph Unpool (gUnpool)を提案する. Graph Pooling Layer ここでの目標は,グラフから情報量の多いノードをサンプリン…

Unsupervised Data Augmentationを読んだのでメモ

はじめに Unsupervised Data Augmentationを読んだのでメモ. 気持ち ここ最近のsemi-supervised learningの基本的な考え方は,ラベルなしデータに対して適当な摂動を加えた出力と元の出力の出力がなるべく同じになるようにするというもの. この研究では,…

TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ

はじめに TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち Unsupervised Image-to-Image Translationはappearanceが大きく違う二つのdomain間の変換は難しいとされてきた.この論文では画像中のappearanceとge…

Few-Shot Unsupervised Image-to-Imge Translationを読んだのでメモ

はじめに Few-Shot Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち 従来のimage-to-image translationはターゲットとなるクラスの画像が大量に必要となっていた.しかし,人間が同様のタスクを行おうと思った際には少量のデータで十分に…

DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ

はじめに DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ. 気持ち Conditional GANのmode collapseを解決しようというもの.cGANはconditionに対して決定的な出力を出してしまうことが多々ある,すなわちstochasticな要…

Segmentation is All You Needを読んだのでメモ

はじめに Segmentation is All You Needを読んだのでメモ.あまりちゃんと読んで無いので読み違いしている部分があるかもしれない. 気持ち Object detectionをする上でbounding boxベースの手法の多くではNMSのような後処理が必要となるが,このような処理…

KPConv: Flexible and Deformable Convolution for Point Cloudsを読んだのでメモ

はじめに KPConv: Flexible and Deformable Convolution for Point Cloudsを読んだのでメモ. 気持ち Point Cloudに対する効果的な畳み込みの方法の提案.基本的には2D regular gridに対する畳み込みを元にしていて,カーネルの形状をdeformation可能なdefor…

Invertible Residual Networksを読んだのでメモ

はじめに Invertible Residual Networksを読んだのでメモ. 気持ち 昨今のdeepによる生成モデルは識別モデルに比べ汎用的なモデルの構造がないので,このgapを埋める新たなアーキテクチャを提案.具体的にはResNetそのままのアーキテクチャでflow-based gene…

TensorMask: A Foundation for Dense Object Segmentationを読んだのでメモ

はじめに TensorMask: A Foundation for Dense Object Segmentationを読んだのでメモ. 気持ち 色々と細かく書いてあるが内容としては単純で,一言で言えばMask R-CNNのone-stage版と言ったところ.通常の矩形のみで検出するタスクではSSDやYOLOといったsing…

Bounding Box Regression with Uncertainty for Accurate Object Detectionを読んだのでメモ

はじめに Bounding Box Regression with Uncertainty for Accurate Object Detectionを読んだのでメモ.Object detectionのための新しいbounding box回帰のための誤差を提案. 気持ち 物体検出において正解となるbounding boxのアノテーションの曖昧さを問題…

Weight Standardizationを読んだのでメモ

はじめに Weight Standardizationを読んだのでメモ. 気持ち バッチサイズに左右されない新しい正規化層の提案.BatchNormはミニバッチサイズが小さい時にうまく機能しないことはよく知られていて,代替となるようなバッチサイズに依存しな様々な正規化層は…

Implicit Generation and Generalization in Energy-Based Modelsを読んだのでメモ

はじめに Implicit Generation and Generalization in Energy-Based Modelsを読んだのでメモ.Glowに引き続きopenAIから生成モデルの論文. Energy-Based Models and Sampling 今回はVAEやGANと違い,ボルツマンマシンに代表されるenergy-based modelで高次…

VideoFlow: A Flow-Based Generative Model for Videoを読んだのでメモ

はじめに VideoFlow: A Flow-Based Generative Model for Videoを読んだのでメモ.Generative Flowを使って動画生成をしたよという論文.モチベーションとしてはgenerative flowだから尤度最大化として学習可能という点. VideoFlow 基本的にはGlowを動画用…

Learning Implicitly Recurrent CNNs Through Parameter Sharingを読んだのでメモ

はじめに Learning Implicitly Recurrent CNNs Through Parameter Sharingを読んだのでメモ. soft parameter sharing 基本的な考え方としてはCNNの畳み込みフィルタを基底となるフィルタの線型結合で表現し,基底を各層で共有すればパラメータ数を減らせる…

Graph Warp Module: an Auxiliary Module for Boosting the Power of Graph Neural Networksを読んだのでメモ

はじめに Graph Warp Module: an Auxiliary Module for Boosting the Power of Graph Neural Networksを読んだのでメモ. 気持ち GNNの表現力の低さを問題視した論文.この問題は以前読んだICLR2019のHow Powerful are Graph Neural Networks?でも議論されて…

Emerging Convolutions for Generative Normalizing Flowsを読んだのでメモ

はじめに Emerging Convolutions for Generative Normalizing Flowsを読んだのでメモ. 気持ち Deepな生成モデルでGlowが登場して,flow-basedな生成モデルの利点が広く認知されたが,結局全単射な関数からしかモデルを構成できず,表現力を上げるには多層に…

Bottom-up Object Detection by Grouping Extreme and Center Pointsを読んだのでメモ

はじめに Bottom-up Object Detection by Grouping Extreme and Center Pointsを読んだのでメモ. 気持ち Object detectionにbounding boxを使うのは良くないのでextreme pointsと中心位置の4点をheatmapとして回帰しようというもの.Extreme pointというの…

Neural Relational Inference for Interacting Systemsを読んだのでメモ

はじめに Neural Relational Inference for Interacting Systemsを読んだのでメモ.ニューラルネットにより要素間のインタラクションを推定したいというもの.例としてバスケットボールをあげていて,ある選手のダイナミクスは相手選手や味方の選手の動きや…

Understanding the Effective Receptive Field in Deep Convolutional Neural Networksを読んだのでメモ

はじめに Understanding the Effective Receptive Field in Deep Convolutional Neural Networksを読んだのでメモ. 気持ち CNNにおけるreceptive fieldをちゃんと解析しようというもの.ここではeffective receptive field(ERF)という上位の概念を導入する…