機械学習とかコンピュータビジョンとか

CVやMLに関する勉強のメモ書き。

Image Segmentation Using Topological Persistenceを読んだのでメモ

はじめに Image Segmentation Using Topological Persistenceを読んだのでメモ.2007年の少し古めの論文.Image segmentationにpersistent homologyを取り入れた論文. Background in Topology Alpha Complexes and Delaunay Triangulations を画像に存在す…

ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ

はじめに ELASTIC-INFOGAN: UNSUPERVISED DISENTANGLED REPRESENTATION LEARNING IN IMBALANCED DATAを読んだのでメモ. 気持ち InfoGANがclass-imbalancedなデータに対してうまく(離散の)潜在表現をdisentangleできないという課題に注目し,この論文ではそ…

Robustness May Be at Odds with Accuracyを読んだのでメモ

はじめに Robustness May Be at Odds with Accuracyを読んだのでメモ. 気持ち この論文ではadversarial robustnessとstandard accuracy(例えば画像分類の精度など)が両立しないことを示し,それはrobust modelとstandard modelが学習によって獲得する特徴表…

Adversarial Examples Are Not Bugs, They Are Featuresを読んだのでメモ

はじめに Adversarial Examples Are Not Bugs, They Are Featuresを読んだのでメモ. 気持ち Adversarial Examplesに対する新しい仮説として,Adversarial Examplesはnon-robust featureという説明不可能な特徴量であるという解釈を提案している.このnon-ro…

Universal adversarial perturbationsを読んだのでメモ

はじめに Universal adversarial perturbationsを読んだのでメモ. 気持ち 従来のadversarial perturbationsは画像ごとに計算されているのに対し,この論文ではある単一の摂動を用いて画像に関係なくdeep neural networks(DNN)を騙すことが可能かということ…

EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLESを読んだのでメモ

はじめに EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLESを読んだのでメモ. 気持ち adversarial examplesの存在はneural netの極度の非線形性によって誘発されると仮説が立てられているが,この論文では逆に線形な振る舞いによるものという説を唱えている…

Intriguing properties of neural networksを読んだのでメモ

はじめに Intriguing properties of neural networksを読んだのでメモ.Adversarial examplesについて少し勉強してみたいと思い読んでみた. 気持ち Deep neural networks(DNN)における二つの非直感的な振る舞いについて解析した論文.ここでの二つの非直感…

Sinkhorn Distances: Optimal Transport with Entropic Constraintsを読んだのでメモ

はじめに Sinkhorn Distances: Optimal Transport with Entropic Constraintsを読んだのでメモ. 気持ち WGANなどで有名になったWasserstein distanceは距離を計算するのに最適化問題を解かなければならず,離散の確率分布間の距離を図ろうとした際にはその…

Object as Distributionを読んだのでメモ

はじめに Object as Distributionを読んだのでメモ.細かな部分は割愛しているので実装する場合は論文を要参照. 気持ち 従来,物体検出はbounding boxを物体の表現として扱ってきた.最近ではモデルの表現力の向上からMask R-CNNに代表されるsegmentation m…

Gated-SCNN: Gated Shape CNNs for Semantic Segmentationを読んだのでメモ

はじめに Gated-SCNN: Gated Shape CNNs for Semantic Segmentationを読んだのでメモ. 気持ち 従来のCNNを使ったsegmentation手法は色だの形だのテクスチャだのをCNNの内部で一緒くたに扱っていて,その扱い方を疑問視した論文.ここではshapeに関する推論…

Deep Learning of Graph Matchingを読んだのでメモ

はじめに Deep Learning of Graph Matchingを読んだのでメモ.タイトルの通り,graph matchingの問題をdeep learningで解くと言うもの. Graph Matching まずgraph matchingの定式化から入る.二つのグラフが与えられたとする.ただし,とする.graph matchi…

Semi-Supervised Learning by Augmented Distribution Alignmentを読んだのでメモ

はじめに Semi-Supervised Learning by Augmented Distribution Alignmentを読んだのでメモ. 気持ち 従来のsemi-supervised learningと違い,この論文はラベルありデータとラベルなしデータ間の経験分布の差を問題視している.semi-supervisedでは基本的に…

Unsupervised Part-Based Disentangling of Object Shape and Appearanceを読んだのでメモ.

はじめに Unsupervised Part-Based Disentangling of Object Shape and Appearanceを読んだのでメモ. 気持ち 教師なしで物体(主に人)のshapeとappearanceに関する表現を獲得しようというもの.このような表現を獲得することでポーズを変えたり見えの一部…

Realistic Evaluation of Deep Semi-Supervised Learning Algorithmsを実装した

はじめに 半教師ありの勉強を兼ねてRealistic Evaluation of Deep Semi-Supervised Learning AlgorithmsをPyTorchで実装した.コードはgithubに公開してます. 諸々 基本的に著者らが公開している実装を参考にPyTorchで実装したが,まだ一部再現しきれていな…

MixMatch: A Holistic Approach to Semi-Supervised Learningを読んだのでメモ

はじめに MixMatch: A Holistic Approach to Semi-Supervised Learningを読んだのでメモ. Semi-supervisedのタスクで,ラベル付きデータが少量でも効果的なアルゴリズムであるMixMatchを提案. MixMatch MixMatchは最近の半教師付き学習の知見を全部詰め込…

Exploration via Flow-Based Intrinsic Rewardsを読んだのでメモ

はじめに Exploration via Flow-Based Intrinsic Rewardsを読んだのでメモ. Flow-based Intrinsic Curiosity Module (FCIM) 最近はやりのCuriosityを使った強化学習.ここではoptical flowを利用したintrinsic rewardを提案.手法は非常に単純で,FlowNetラ…

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networksを読んだのでメモ

はじめに EfficientNet: Rethinking Model Scaling for Convolutional Neural Networksを読んだのでメモ.より良いbackbone networkであるEfficientNetを提案.感覚的に持ってたモデルの深さと幅,入力に関する解像度とモデルの精度間の関係をいくつか実験的…

GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ

はじめに GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ.Generative flowを使ってmolecular graphを生成する初めての試みとのこと. GraphNVP Generative Flowの一般的な話は何度か記事にしているのでここでは割愛…

Learning the Depths of Moving People by Watching Frozen Peopleを読んだのでメモ

はじめに Learning the Depths of Moving People by Watching Frozen Peopleを読んだのでメモ. 概要 SfMやmulti-view stereo(MVS)は一般的に移動体のデプスを推定することができない(何らかの仮定が必要).この論文では動体は人のみという仮定をおいて…

Feature Denoising for Improving Adversarial Robustnessを読んだのでメモ

はじめに Feature Denoising for Improving Adversarial Robustnessを読んだのでメモ. 気持ち Figure 1の可視化がモチベーションの全てで,adversarial noiseを加えた画像は元の画像に比べて,CNNの中間的な特徴マップに一種のノイズが含まれる.そのため,…

Graph U-Netsを読んだのでメモ

はじめに Graph U-Netsを読んだのでメモ. 概要 Graph Neural NetworkでU-Netを作りたいというもの.そのためにgraph Pooling (gPool)とgraph Unpool (gUnpool)を提案する. Graph Pooling Layer ここでの目標は,グラフから情報量の多いノードをサンプリン…

Unsupervised Data Augmentationを読んだのでメモ

はじめに Unsupervised Data Augmentationを読んだのでメモ. 気持ち ここ最近のsemi-supervised learningの基本的な考え方は,ラベルなしデータに対して適当な摂動を加えた出力と元の出力の出力がなるべく同じになるようにするというもの. この研究では,…

TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ

はじめに TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち Unsupervised Image-to-Image Translationはappearanceが大きく違う二つのdomain間の変換は難しいとされてきた.この論文では画像中のappearanceとge…

Few-Shot Unsupervised Image-to-Imge Translationを読んだのでメモ

はじめに Few-Shot Unsupervised Image-to-Image Translationを読んだのでメモ. 気持ち 従来のimage-to-image translationはターゲットとなるクラスの画像が大量に必要となっていた.しかし,人間が同様のタスクを行おうと思った際には少量のデータで十分に…

DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ

はじめに DIVERSITY-SENSITIVE CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSを読んだのでメモ. 気持ち Conditional GANのmode collapseを解決しようというもの.cGANはconditionに対して決定的な出力を出してしまうことが多々ある,すなわちstochasticな要…

Segmentation is All You Needを読んだのでメモ

はじめに Segmentation is All You Needを読んだのでメモ.あまりちゃんと読んで無いので読み違いしている部分があるかもしれない. 気持ち Object detectionをする上でbounding boxベースの手法の多くではNMSのような後処理が必要となるが,このような処理…

KPConv: Flexible and Deformable Convolution for Point Cloudsを読んだのでメモ

はじめに KPConv: Flexible and Deformable Convolution for Point Cloudsを読んだのでメモ. 気持ち Point Cloudに対する効果的な畳み込みの方法の提案.基本的には2D regular gridに対する畳み込みを元にしていて,カーネルの形状をdeformation可能なdefor…

Invertible Residual Networksを読んだのでメモ

はじめに Invertible Residual Networksを読んだのでメモ. 気持ち 昨今のdeepによる生成モデルは識別モデルに比べ汎用的なモデルの構造がないので,このgapを埋める新たなアーキテクチャを提案.具体的にはResNetそのままのアーキテクチャでflow-based gene…

TensorMask: A Foundation for Dense Object Segmentationを読んだのでメモ

はじめに TensorMask: A Foundation for Dense Object Segmentationを読んだのでメモ. 気持ち 色々と細かく書いてあるが内容としては単純で,一言で言えばMask R-CNNのone-stage版と言ったところ.通常の矩形のみで検出するタスクではSSDやYOLOといったsing…

Bounding Box Regression with Uncertainty for Accurate Object Detectionを読んだのでメモ

はじめに Bounding Box Regression with Uncertainty for Accurate Object Detectionを読んだのでメモ.Object detectionのための新しいbounding box回帰のための誤差を提案. 気持ち 物体検出において正解となるbounding boxのアノテーションの曖昧さを問題…