Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
Group Sampling for
Scale Invariant Face Detection
Xiang Ming, Fangyun Wei, Ting Zhang, Dong Chen and Fang Wen
(Xi’an Jiaot...
Agenda
2
◼ 概要
◼ 課題
◼ 既存手法
◼ 実験
◼ まとめ
概要
3
◼ 複数解像度の層を使わなくても顔検出ができることを示した。
◼ 特徴としては単一の層で十分。
◼ 各スケールのAnchorで、学習データ数/Negative・Positiveのバランス
が取れていることが精度向上にとって重要。
◼ ...
課題
4
◼ 小さいオブジェクトは、検出領域から外れる可能性が高い。
AnchorをStrideごとに配置する場合、Anchor/Strideのサイズに
よって漏れる領域が出る。小さいオブジェクトの場合ここにはまって
検出できないことが多い。ど...
既存手法
5
◼ 複数解像度(マルチスケール)の特徴量を統合して予測する。
◼ 統合の仕方は、普通に合わせるほかSkip-Connectionをはって作成
するなどいろいろバリエーションがある。
◼ 複数特徴量で精度は良くなる。しかし単一層の場...
実験1: Anchorの数をそろえる (1/4)
6
◼ RPN: 単一層に対し複数スケールのAnchorを固定Strideで配置(16px)
◼ 固定配置なので、各スケールのAnchor数は変わらない。
◼ 小さいAnchorほど不利(Str...
実験1: Anchorの数をそろえる (2/4)
7
◼ RPNよりFPNの方が優秀
◼ RPNでは小さいAnchorほど不利=Positive Sampleが得られない
◼ FPNでは小さいAnchorは密に配置されるため、全体として小ス
ケ...
実験1: Anchorの数をそろえる (3/4)
8
◼ FPNとFPN-finest-strideは同等精度
◼ どこの特徴マップからとるか、よりも複数サイズのAnchorを取る
ことの方が重要といえる。
Group Sampling for...
実験1: Anchorの数をそろえる (4/4)
9
◼ RPNよりFPN-finestの方が優秀
◼ Strideを細かくすることでPositive Sampleの数を確保できる。
◼ RPN<FPN-finestとなったことから、単純にAn...
実験2: 各スケールのAnchorでサンプル数をそろえる (1/2)
10
◼ 各スケールのAnchor数は同じになるようにしつつ、
◼ Positive/Negativeの比率が1:3になるよう調整する
全スケールについて、同サンプル数同比率...
実験2: 各スケールのAnchorでサンプル数をそろえる (2/2)
11
◼ 単一層のみの利用であっても、他手法の精度を上回る。
◼ 複数特徴マップを使わないといけないFPNに対して顕著な改善。
Group Sampling for Scal...
まとめ
12
◼ 顔検出において、複数の特徴マップを利用することが精度の改善に寄
与しているのではないことを突き止めた。
◼ 実際貢献しているのは複数スケールのAnchor数。
◼ かつ、各Anchorの学習データ数、その中のNegative/...
Upcoming SlideShare
Loading in …5
×

【CVPR 2019】Group Sampling for Scale Invariant Face Detection

282 views

Published on

cvpaper.challenge はコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文読破・まとめ・アイディア考案・議論・実装・論文投稿に取り組み、あらゆる知識を共有しています。
http://xpaperchallenge.org/cv/

本資料は、CVPR 2019 網羅的サーベイの成果の一部で、1論文を精読してプレゼンテーション形式でまとめております。論文サマリは下記からご確認頂けます。
http://xpaperchallenge.org/cv/survey/cvpr2019_summaries/listall/

Published in: Technology
  • Be the first to comment

  • Be the first to like this

【CVPR 2019】Group Sampling for Scale Invariant Face Detection

  1. 1. Group Sampling for Scale Invariant Face Detection Xiang Ming, Fangyun Wei, Ting Zhang, Dong Chen and Fang Wen (Xi’an Jiaotong University, Microsoft Research Asia) 資料作成: 久保 隆宏 1 http://xpaperchallenge.org/cv/
  2. 2. Agenda 2 ◼ 概要 ◼ 課題 ◼ 既存手法 ◼ 実験 ◼ まとめ
  3. 3. 概要 3 ◼ 複数解像度の層を使わなくても顔検出ができることを示した。 ◼ 特徴としては単一の層で十分。 ◼ 各スケールのAnchorで、学習データ数/Negative・Positiveのバランス が取れていることが精度向上にとって重要。 ◼ バランスを取るためのGroup Samplingという手法を提案し、狙い 通り精度の向上を確認した。
  4. 4. 課題 4 ◼ 小さいオブジェクトは、検出領域から外れる可能性が高い。 AnchorをStrideごとに配置する場合、Anchor/Strideのサイズに よって漏れる領域が出る。小さいオブジェクトの場合ここにはまって 検出できないことが多い。どうしよう? Math Works: Anchor Boxes for Object Detection
  5. 5. 既存手法 5 ◼ 複数解像度(マルチスケール)の特徴量を統合して予測する。 ◼ 統合の仕方は、普通に合わせるほかSkip-Connectionをはって作成 するなどいろいろバリエーションがある。 ◼ 複数特徴量で精度は良くなる。しかし単一層の場合と条件は同じか? ◼ 特徴マップが増えるほどその上に配置されるAnchorも増える。 ◼ 特徴マップは据え置きで、Anchor数だけ揃えたらどうなるか? M2Det: A Single-Shot Object Detector based on Multi-Level Feature Pyramid Network
  6. 6. 実験1: Anchorの数をそろえる (1/4) 6 ◼ RPN: 単一層に対し複数スケールのAnchorを固定Strideで配置(16px) ◼ 固定配置なので、各スケールのAnchor数は変わらない。 ◼ 小さいAnchorほど不利(Stride固定=小さいAnchorほど間が空く) ◼ FPN: 各層のスケールに応じたStrideでAnchorを配置 ◼ 大きいAnchorほど配置数が少ない(Strideも大きくなるため)。 ◼ =小さいAnchorほど密に配置される。 ◼ FPN-finest-stride: 配置はFPNと同じだが特徴マップを1つに限定。 ◼ FPN-finest: FPN-finest-strideのStrideを固定(4px)。 Group Sampling for Scale Invariant Face Detection Figure 1 特徴マップ: 単一 Anchor: 各スケール同数 特徴マップ: 複数 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 各スケール同数
  7. 7. 実験1: Anchorの数をそろえる (2/4) 7 ◼ RPNよりFPNの方が優秀 ◼ RPNでは小さいAnchorほど不利=Positive Sampleが得られない ◼ FPNでは小さいAnchorは密に配置されるため、全体として小ス ケールの学習データが増える。 ◼ 小さいオブジェクトが多いデータで強い(MS COCO/WIDER FACE)。 Group Sampling for Scale Invariant Face Detection Figure 1 特徴マップ: 単一 Anchor: 各スケール同数 特徴マップ: 複数 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 各スケール同数
  8. 8. 実験1: Anchorの数をそろえる (3/4) 8 ◼ FPNとFPN-finest-strideは同等精度 ◼ どこの特徴マップからとるか、よりも複数サイズのAnchorを取る ことの方が重要といえる。 Group Sampling for Scale Invariant Face Detection Figure 1 特徴マップ: 単一 Anchor: 各スケール同数 特徴マップ: 複数 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 各スケール同数 互角
  9. 9. 実験1: Anchorの数をそろえる (4/4) 9 ◼ RPNよりFPN-finestの方が優秀 ◼ Strideを細かくすることでPositive Sampleの数を確保できる。 ◼ RPN<FPN-finestとなったことから、単純にAnchor数を確保する だけでなくPositive/Negativeのバランスが重要といえる。 Group Sampling for Scale Invariant Face Detection Figure 1 特徴マップ: 単一 Anchor: 各スケール同数 特徴マップ: 複数 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 高スケール=少 特徴マップ: 単一 Anchor: 各スケール同数
  10. 10. 実験2: 各スケールのAnchorでサンプル数をそろえる (1/2) 10 ◼ 各スケールのAnchor数は同じになるようにしつつ、 ◼ Positive/Negativeの比率が1:3になるよう調整する 全スケールについて、同サンプル数同比率で学習するようにする。 =提案手法: Group Sampling Group Sampling for Scale Invariant Face Detection Figure 1 特徴マップ: 単一 Anchor: 各スケール同数+調整
  11. 11. 実験2: 各スケールのAnchorでサンプル数をそろえる (2/2) 11 ◼ 単一層のみの利用であっても、他手法の精度を上回る。 ◼ 複数特徴マップを使わないといけないFPNに対して顕著な改善。 Group Sampling for Scale Invariant Face Detection Table 1 ◼ FDDBデータセットでSOTAを更新
  12. 12. まとめ 12 ◼ 顔検出において、複数の特徴マップを利用することが精度の改善に寄 与しているのではないことを突き止めた。 ◼ 実際貢献しているのは複数スケールのAnchor数。 ◼ かつ、各Anchorの学習データ数、その中のNegative/Positiveのバ ランスが重要なことを確認。 ◼ 分析結果に基づき各Anchor数の学習データを調整したところ、既存手 法を上回る効果を得た。 単純に特徴を足していくのでなく、分析=>分析に基づく対策、という堅 調なプロセスで結果を出した!

×