2019-01-01から1年間の記事一覧
はじめに Graph U-Netsを読んだのでメモ. 概要 Graph Neural NetworkでU-Netを作りたいというもの.そのためにgraph Pooling (gPool)とgraph Unpool (gUnpool)を提案する. Graph Pooling Layer ここでの目標は,グラフから情報量の多いノードをサンプリン…
はじめに Unsupervised Data Augmentationを読んだのでメモ. 気持ち ここ最近のsemi-supervised learningの基本的な考え方は,ラベルなしデータに対して適当な摂動を加えた出力と元の出力の出力がなるべく同じになるようにするというもの. この研究では,…
はじめに TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち Unsupervised Image-to-Image Translationはappearanceが大きく違う二つのdomain間の変換は難しいとされてきた.この論文では画像中のappearanceとge…
はじめに Few-Shot Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち 従来のimage-to-image translationはターゲットとなるクラスの画像が大量に必要となっていた.しかし,人間が同様のタスクを行おうと思った際には少量のデータで十分に…
はじめに DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ. 気持ち Conditional GANのmode collapseを解決しようというもの.cGANはconditionに対して決定的な出力を出してしまうことが多々ある,すなわちstochasticな要…
はじめに Segmentation is All You Needを読んだのでメモ.あまりちゃんと読んで無いので読み違いしている部分があるかもしれない. 気持ち Object detectionをする上でbounding boxベースの手法の多くではNMSのような後処理が必要となるが,このような処理…
はじめに KPConv: Flexible and Deformable Convolution for Point Cloudsを読んだのでメモ. 気持ち Point Cloudに対する効果的な畳み込みの方法の提案.基本的には2D regular gridに対する畳み込みを元にしていて,カーネルの形状をdeformation可能なdefor…
はじめに Invertible Residual Networksを読んだのでメモ. 気持ち 昨今のdeepによる生成モデルは識別モデルに比べ汎用的なモデルの構造がないので,このgapを埋める新たなアーキテクチャを提案.具体的にはResNetそのままのアーキテクチャでflow-based gene…
はじめに TensorMask: A Foundation for Dense Object Segmentationを読んだのでメモ. 気持ち 色々と細かく書いてあるが内容としては単純で,一言で言えばMask R-CNNのone-stage版と言ったところ.通常の矩形のみで検出するタスクではSSDやYOLOといったsing…
はじめに Bounding Box Regression with Uncertainty for Accurate Object Detectionを読んだのでメモ.Object detectionのための新しいbounding box回帰のための誤差を提案. 気持ち 物体検出において正解となるbounding boxのアノテーションの曖昧さを問題…
はじめに Weight Standardizationを読んだのでメモ. 気持ち バッチサイズに左右されない新しい正規化層の提案.BatchNormはミニバッチサイズが小さい時にうまく機能しないことはよく知られていて,代替となるようなバッチサイズに依存しな様々な正規化層は…
はじめに Implicit Generation and Generalization in Energy-Based Modelsを読んだのでメモ.Glowに引き続きopenAIから生成モデルの論文. Energy-Based Models and Sampling 今回はVAEやGANと違い,ボルツマンマシンに代表されるenergy-based modelで高次…
はじめに VideoFlow: A Flow-Based Generative Model for Videoを読んだのでメモ.Generative Flowを使って動画生成をしたよという論文.モチベーションとしてはgenerative flowだから尤度最大化として学習可能という点. VideoFlow 基本的にはGlowを動画用…
はじめに Learning Implicitly Recurrent CNNs Through Parameter Sharingを読んだのでメモ. soft parameter sharing 基本的な考え方としてはCNNの畳み込みフィルタを基底となるフィルタの線型結合で表現し,基底を各層で共有すればパラメータ数を減らせる…
はじめに Graph Warp Module: an Auxiliary Module for Boosting the Power of Graph Neural Networksを読んだのでメモ. 気持ち GNNの表現力の低さを問題視した論文.この問題は以前読んだICLR2019のHow Powerful are Graph Neural Networks?でも議論されて…
はじめに Emerging Convolutions for Generative Normalizing Flowsを読んだのでメモ. 気持ち Deepな生成モデルでGlowが登場して,flow-basedな生成モデルの利点が広く認知されたが,結局全単射な関数からしかモデルを構成できず,表現力を上げるには多層に…
はじめに Bottom-up Object Detection by Grouping Extreme and Center Pointsを読んだのでメモ. 気持ち Object detectionにbounding boxを使うのは良くないのでextreme pointsと中心位置の4点をheatmapとして回帰しようというもの.Extreme pointというの…
はじめに Neural Relational Inference for Interacting Systemsを読んだのでメモ.ニューラルネットにより要素間のインタラクションを推定したいというもの.例としてバスケットボールをあげていて,ある選手のダイナミクスは相手選手や味方の選手の動きや…
はじめに Understanding the Effective Receptive Field in Deep Convolutional Neural Networksを読んだのでメモ. 気持ち CNNにおけるreceptive fieldをちゃんと解析しようというもの.ここではeffective receptive field(ERF)という上位の概念を導入する…