CornerNet: Detecting Objects as Paired Keypointsを読んだのでメモ.
はじめに
CornerNet: Detecting Objects as Paired Keypointsを読んだのでメモ.
気持ち
現状のアンカーベースのobject detectorは,大量のアンカーを用意する必要があるのとハイパーパラメータが多くなるという課題があるのでそこを解決したいというもの.そこで,物体の左上の座標と右下の座標をヒートマップとして出力するCornerNetを提案.中心座標を回帰する場合は4点分の情報が必要だがcornerなら2点で済むから簡単であるはずという仮説にも基づいているらしい.
CornerNet
CornerNetのメインのアイディアとしてはbounding boxの左上,右下をkeypointsとして,そのkeypointsのペアを物体として検出するというもの.イメージとしてはConvolutional Pose Machine(CPM)などのやり方を応用した感じ.
CornerNetは,左上のkeypointsのheatmapを出力するモジュールと右下を出力するモジュール,その他にkeypointsのペアを決めるのに使う埋め込みベクトルを出力するモジュールとbounding boxを決定する際の補助に使うoffsetを出力するモジュールから成り立つ.
Cornerの検出
Cornerの検出のためのheatmapは,bounding boxの左上,右上それぞれ用意され,各heatmapはクラス数のチャネルを持つ.ただし背景クラスのheatmapは無く,各heatmapはcornerが有るか無いかの2値分類器として学習される.このとき,正解のcornerをmapの中の唯一1点として与えるのは当然筋がよく無いので,CPM等と同様アノテーションの座標を中心としてガウス分布に従う広がりを持たせたものを正解として学習する.具体的にはとして正解の値を作る.は正解の矩形とのIoUから決まる半径の1/3に設定したとのこと.半径は,半径以内に収まる点をcornerとして作った矩形と正解矩形とのIoUが以上になる様に決められ,実験は[t=0.7]で行ったらしい.
をクラスのheatmapのピクエルのスコアとして,を正解の値とする.目的関数を以下のfocal lossとして学習する.
は画像中の物体の数で,はハイパーパラメータでで実験を行なったとのこと.
基本的にCNNは空間方向の情報の集約と計算コストの削減のためにpoolingの様なdownsamplingの操作が入り,出力は元画像より小さくなる.すなわちdownsamplingのスケールをとすれば出力の空間方向のサイズはとなる.そのため,heatmapからbounding boxを作り出して元の画像の座標値に直す際に多少なり精度が落ちる.この精度の劣化は小さい物体ほど顕著に現れるため,こんお問題を解決するために,次の様なlocation offsetsの推定を行う.
がoffsetでは推定されたcorner のx,y座標.heatmapはカテゴリごとに出力されるのに対し,このoffsetはカテゴリ関係なく一つのcornerに対して1つ出力される.学習は次のsmooth L1 Lossによって行われる.
Cornerの統合
一般的に一つの画像に対し複数の物体が存在しているため,cornerも複数検出される.そのため,左上のcornerと右下のcornerのペアを決定しなければならない.そこで,各cornerごとに埋め込みベクトルを出力させ,その埋め込みベクトル間の距離を使ってグルーピングを行う.
を物体の左上のcornerのembedding,を右下のcornerのembeddingとする.embeddingの次元は1次元とし,学習には次の"pull" lossと"push" lossを使った.
はの平均では1に設定したとのこと.
Corner Pooling
Cornerを使った検出の課題として,斜めに置かれた棒などの矩形を出す際に,cornerの付近に検出対象の物体が写ってなくてcornerを推定するための根拠がない場合がある(論文Fig. 2参照).なのでcornerを決めるためには水平方向,垂直方向の情報を集約する必要があるため,ここではそれを実現するためにcorner poolingを提案する.
をtop-left corner pooling layerの入力の特徴マップとし,をのピクセルのベクトルとする.の特徴マップが与えられたとき,corner pooling layerはから,からの間でmax-poolをする.これは次の様に表現できる.
Bottom-right cornerに関してもから,から間のmax-poolとして同様に定義ができる.
学習について
モデルの構成については省略.簡単にはbackboneにhourglass networkを使い,出力のブランチは論文Fig. 7にのってる.
入力画像の解像度は511511で出力の解像度は128128.データ拡張として,random horizontal flipping, random scaling, random cropping and random color jitteringを使用.検出で使われる一般的な拡張方法.最適化はAdamを使い,以下のコスト関数を最小化する様学習.
は0.1では1に設定.を1以上にすると性能が低下するらしい.バッチサイズは49で500k iteration学習.学習率はから始め,250k回学習した段階でに減衰させる.
まとめ
SoTAモデルと比較して精度はほぼほぼトップ.個人的にdenseなシーンでどれくらい機能するか気になるところ.一般的な検出器はdenseなシーンだとNMSで矩形が統合されて検出率が落ちるけどこっちはこっちでcornerが統合されてダメになるのかどうか.とは言え物体検出の論文で久しぶりに大きな変化があった気がする.