機械学習とかコンピュータビジョンとか

CVやMLに関する勉強のメモ書き。

2019-01-01から1年間の記事一覧

SOLO: Segmenting Objects by Locationsを読んだのでメモ

はじめに SOLO: Segmenting Objects by Locationsを読んだのでメモ. Instance Segmentationをoneshotかつ高精度におこなったというもの. YOLO 物自体は単純で,FPNによるobject detectionのbb生成側のブランチをインスタンスマスクに変えたという感じ. こ…

Differentiable Convex Optimization Layersについて調べたのでメモ

はじめに Differentiable Convex Optimization Layersについて調べたのでメモ. 注意として凸最適問題やそのソルバーには一切精通していないため,お気持ちとライブラリの簡単な使い方だけ説明する. 気持ちはどうでもいいから使い方だけという人は後半へ. …

Filter Response Normalization Layer: Eliminating Batch Dependence in the Training of Deep Neural Networksを読んだのでメモ

はじめに Filter Response Normalization Layer: Eliminating Batch Dependence in the Training of Deep Neural Networksを読んだのでメモ. BatchNormをoutperformする非バッチ依存の正規化層を提案する論文. 手法 前提として入力データはバッチ次元を持…

Adversarial Examples Improve Image Recognitionを読んだのでメモ.

はじめに Adversarial Examples Improve Image Recognitionを読んだのでメモ. 端的にはadversarial examplesを頑健性向上などではなく単純なモデルの精度向上に使うというもの. 手法 手法としては,通常のデータ(clean examples)と敵対的データ(adversaria…

Point-Voxel CNN for Efficient 3D Deep Learningを読んだのでメモ

はじめに Point-Voxel CNN for Efficient 3D Deep Learningを読んだのでメモ. 気持ち 3Dデータに対するdeep learning(特に畳み込み系)は計算コストが高いことが知られていて,エッジデバイス等での実装は不向きであるなので軽いかつ高性能なモデルを作りた…

Prescribed Generative Adversarial Networksを読んだのでメモ

GAN

はじめに Prescribed Generative Adversarial Networksを読んだのでメモ. 気持ち GANの問題の一つであるmode collapseとモデル分布(生成分布)が陽に定義されておらず尤度等の計算ができないという2つの問題にアプローチした論文.mode collapseはモデルの学…

Unsupervised Object Segmentation by Redrawingを読んだのでメモ

はじめに Unsupervised Object Segmentation by Redrawingを読んだのでメモ.タイトルの通りunsupervisedなobject segmentationの論文. Method セグメンテーションのプロセスを定義する.は画像が与えられた時,各ピクセルに個のラベルのどれかを割り当てる…

Improving Discrete Latent Representations With Differentiable Approximation Bridgesを読んだのでメモ

はじめに Improving Discrete Latent Representations With Differentiable Approximation Bridgesを読んだのでメモ. 気持ち ニューラルネットの学習のために非連続な関数の勾配を近似/推論したいというもの.そのためにdifferentiable approximation bridg…

SinGAN: Learning a Generative Model from a Single Natural Imageを読んだのでメモ

はじめに SinGAN: Learning a Generative Model from a Single Natural Imageを読んだのでメモ. 一言で言えば1枚の学習画像からGANを学習するという研究. Method 目標は一枚の学習画像のinternal statistics(1枚の画像が従う分布という理解)をGANによって…

SegSort: Segmentation by Discriminative Sorting of Segmentsを読んだのでメモ

はじめに SegSort: Segmentation by Discriminative Sorting of Segmentsを読んだのでメモ. 気持ち 従来のsemantic segmentationはピクセル毎のクラス分類問題として解決が試みられているが,人間はそうやっていないからもっと別なアプローチが必要だと言う…

Image Segmentation Using Topological Persistenceを読んだのでメモ

はじめに Image Segmentation Using Topological Persistenceを読んだのでメモ.2007年の少し古めの論文.Image segmentationにpersistent homologyを取り入れた論文. Background in Topology Alpha Complexes and Delaunay Triangulations を画像に存在す…

ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ

はじめに ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ. 気持ち InfoGANがclass-imbalancedなデータに対してうまく(離散の)潜在表現をdisentangleできないという課題に注目し,この論文ではそ…

Robustness May Be at Odds with Accuracyを読んだのでメモ

はじめに Robustness May Be at Odds with Accuracyを読んだのでメモ. 気持ち この論文ではadversarial robustnessとstandard accuracy(例えば画像分類の精度など)が両立しないことを示し,それはrobust modelとstandard modelが学習によって獲得する特徴表…

Adversarial Examples Are Not Bugs, They Are Featuresを読んだのでメモ

はじめに Adversarial Examples Are Not Bugs, They Are Featuresを読んだのでメモ. 気持ち Adversarial Examplesに対する新しい仮説として,Adversarial Examplesはnon-robust featureという説明不可能な特徴量であるという解釈を提案している.このnon-ro…

Universal adversarial perturbationsを読んだのでメモ

はじめに Universal adversarial perturbationsを読んだのでメモ. 気持ち 従来のadversarial perturbationsは画像ごとに計算されているのに対し,この論文ではある単一の摂動を用いて画像に関係なくdeep neural networks(DNN)を騙すことが可能かということ…

EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLESを読んだのでメモ

はじめに EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLESを読んだのでメモ. 気持ち adversarial examplesの存在はneural netの極度の非線形性によって誘発されると仮説が立てられているが,この論文では逆に線形な振る舞いによるものという説を唱えている…

Intriguing properties of neural networksを読んだのでメモ

はじめに Intriguing properties of neural networksを読んだのでメモ.Adversarial examplesについて少し勉強してみたいと思い読んでみた. 気持ち Deep neural networks(DNN)における二つの非直感的な振る舞いについて解析した論文.ここでの二つの非直感…

Sinkhorn Distances: Optimal Transport with Entropic Constraintsを読んだのでメモ

はじめに Sinkhorn Distances: Optimal Transport with Entropic Constraintsを読んだのでメモ. 気持ち WGANなどで有名になったWasserstein distanceは距離を計算するのに最適化問題を解かなければならず,離散の確率分布間の距離を図ろうとした際にはその…

Object as Distributionを読んだのでメモ

はじめに Object as Distributionを読んだのでメモ.細かな部分は割愛しているので実装する場合は論文を要参照. 気持ち 従来,物体検出はbounding boxを物体の表現として扱ってきた.最近ではモデルの表現力の向上からMask R-CNNに代表されるsegmentation m…

Gated-SCNN: Gated Shape CNNs for Semantic Segmentationを読んだのでメモ

はじめに Gated-SCNN: Gated Shape CNNs for Semantic Segmentationを読んだのでメモ. 気持ち 従来のCNNを使ったsegmentation手法は色だの形だのテクスチャだのをCNNの内部で一緒くたに扱っていて,その扱い方を疑問視した論文.ここではshapeに関する推論…

Deep Learning of Graph Matchingを読んだのでメモ

はじめに Deep Learning of Graph Matchingを読んだのでメモ.タイトルの通り,graph matchingの問題をdeep learningで解くと言うもの. Graph Matching まずgraph matchingの定式化から入る.二つのグラフが与えられたとする.ただし,とする.graph matchi…

Semi-Supervised Learning by Augmented Distribution Alignmentを読んだのでメモ

はじめに Semi-Supervised Learning by Augmented Distribution Alignmentを読んだのでメモ. 気持ち 従来のsemi-supervised learningと違い,この論文はラベルありデータとラベルなしデータ間の経験分布の差を問題視している.semi-supervisedでは基本的に…

Unsupervised Part-Based Disentangling of Object Shape and Appearanceを読んだのでメモ.

はじめに Unsupervised Part-Based Disentangling of Object Shape and Appearanceを読んだのでメモ. 気持ち 教師なしで物体(主に人)のshapeとappearanceに関する表現を獲得しようというもの.このような表現を獲得することでポーズを変えたり見えの一部…

Realistic Evaluation of Deep Semi-Supervised Learning Algorithmsを実装した

はじめに 半教師ありの勉強を兼ねてRealistic Evaluation of Deep Semi-Supervised Learning AlgorithmsをPyTorchで実装した.コードはgithubに公開してます. 諸々 基本的に著者らが公開している実装を参考にPyTorchで実装したが,まだ一部再現しきれていな…

MixMatch: A Holistic Approach to Semi-Supervised Learningを読んだのでメモ

はじめに MixMatch: A Holistic Approach to Semi-Supervised Learningを読んだのでメモ. Semi-supervisedのタスクで,ラベル付きデータが少量でも効果的なアルゴリズムであるMixMatchを提案. MixMatch MixMatchは最近の半教師付き学習の知見を全部詰め込…

Exploration via Flow-Based Intrinsic Rewardsを読んだのでメモ

はじめに Exploration via Flow-Based Intrinsic Rewardsを読んだのでメモ. Flow-based Intrinsic Curiosity Module (FCIM) 最近はやりのCuriosityを使った強化学習.ここではoptical flowを利用したintrinsic rewardを提案.手法は非常に単純で,FlowNetラ…

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networksを読んだのでメモ

はじめに EfficientNet: Rethinking Model Scaling for Convolutional Neural Networksを読んだのでメモ.より良いbackbone networkであるEfficientNetを提案.感覚的に持ってたモデルの深さと幅,入力に関する解像度とモデルの精度間の関係をいくつか実験的…

GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ

はじめに GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ.Generative flowを使ってmolecular graphを生成する初めての試みとのこと. GraphNVP Generative Flowの一般的な話は何度か記事にしているのでここでは割愛…

Learning the Depths of Moving People by Watching Frozen Peopleを読んだのでメモ

はじめに Learning the Depths of Moving People by Watching Frozen Peopleを読んだのでメモ. 概要 SfMやmulti-view stereo(MVS)は一般的に移動体のデプスを推定することができない(何らかの仮定が必要).この論文では動体は人のみという仮定をおいて…

Feature Denoising for Improving Adversarial Robustnessを読んだのでメモ

はじめに Feature Denoising for Improving Adversarial Robustnessを読んだのでメモ. 気持ち Figure 1の可視化がモチベーションの全てで,adversarial noiseを加えた画像は元の画像に比べて,CNNの中間的な特徴マップに一種のノイズが含まれる.そのため,…