Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
1
http://xpaperchallenge.org/cv/
UniformFace: Learning Deep Equidistributed
Representation for Face Recognition
Yueqi Duan...
2
研究背景
• 顔認証は重要技術であり様々な⼿法が提案されている
– Dicriminativeな特徴を得ることを⽬指したcontrastive loss,
center loss, L-Softmaxなど
– データ間のユークリッド距離を制...
3
研究背景
• データ全体を特徴空間中にどのように分布させるか
については考えていない
• しかしそれら既存の研究はクラス間の距離を⼤きく,
クラス内の距離を⼩さくすることに注視
特徴空間に無駄な部分ができてしまう!
4
研究⽬的
• データ全体の特徴空間中での分布は重要と考えられる
– データが特徴空間の⼀部のみに分布している可能性
– クラス間距離の分散が⼤きいと誤分類につながる
データが特徴空間中に均⼀に分布するような
新たな損失関数を提案し,精度向上...
5
論⽂の概要
• データ全体が特徴空間中でより均⼀に分布するような
損失関数,UniformLossの提案を⾏った.
– 球の表⾯上の電荷のポテンシャルエナジーは,それが等分布するとき
に最⼩になるという点から着想を得ている
• 既存のSph...
6
先⾏研究|SphereFace (A-Softmax)
通常のsoftmax
|	𝑾𝒋| = 1, 𝑏) = 0に正規化
変形softmax
7
先⾏研究|SphereFace (A-Softmax)
変形softmax
対象クラスに
マージンmをかける
A-softmax
8
先⾏研究|SphereFace (A-Softmax)
A-softmax
• クラス間の⾓度を⼤きくしつつクラス内が⼩さい球内
にまとまるようにする
• 特徴空間にどのように分布させるかは考えていない
9
提案⼿法
• 各クラスの中⼼を等価の電荷と考えると,それらのポテンシャ
ルは等分布した時に最⼩になる(クラス間距離が⼀定に)
10
提案⼿法
• クーロンの法則をもとに各クラス中⼼cj間の
ポテンシャルは次のように考えられる
クーロン⼒:
ポテンシャル:
11
提案⼿法
• 最終的な損失関数UniformLossは次のような形になる
M:クラス数
• 中⼼cjの更新は次で⾏う
n:ミニバッチ中のサンプル数,δ(.):デルタ関数(0 or 1)
12
• UniformLossをA-softmaxと合わせて利⽤する
λ=0の時は通常の損失と同じ
提案⼿法
13
提案⼿法|アルゴリズム
A-softmaxとUniformLossで同時に更新するのが重要
14
実験|データセット
以下のデータセットで性能を検証
• The MegaFace Dataset
– 690Kの個⼈について100万を超える画像
• The IJB-A Dataset
– 500⼈の個⼈について2042個のビデオと539...
15
実験|MegaFaceでの実験
以False Accepted RateとTrue Aで評価
UniformLossを加える
だけで精度が⼤きく向上
16
実験|MegaFace上で分布の均⼀性の評価
クラス間距離の平均,分散,最も近い1000クラス間距離の平均
想定通り,クラス間距離は均⼀に離れていることがわかる
17
実験|UniformLossの汎⽤性の評価
Angular margin系の損失関数にUniformLossを追加する
UniformLossの追加により精度を向上できている
18
Verificationとidentificationを⾏いFARとTARで評価
PRNなどが姿勢についての事前知識を利⽤しているにもかかわらず近
い精度を出せている.姿勢にばらつきがある場合でも有効と⾔える
実験|IJB-A
19
実験|YTFとLFWでの実験
DeepFaceなどで複数モデルを利⽤しても提案⼿法が勝利
20
実験|Ablation Study
A-softmaxのmを変更しつつ精度やクラス間距離を⽐較
Discriminativenessの向上に寄与するmを⼤きくしても
UniformLossを⽤いた場合の⽅が性能が良い
21
まとめ
• データ全体が特徴空間中でより均⼀に分布するような
損失関数,UniformLossの提案を⾏った.
– データが均⼀に分布することで精度の向上が期待できる
– 球の表⾯上の電荷のポテンシャルエナジーは,それが等分布するとき
に...
Upcoming SlideShare
Loading in …5
×

【CVPR 2019】UniformFace: Learning Deep Equidistributed Representation for Face Recognition

170 views

Published on

cvpaper.challenge はコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文読破・まとめ・アイディア考案・議論・実装・論文投稿に取り組み、あらゆる知識を共有しています。
http://xpaperchallenge.org/cv/

本資料は、CVPR 2019 網羅的サーベイの成果の一部で、1論文を精読してプレゼンテーション形式でまとめております。論文サマリは下記からご確認頂けます。
http://xpaperchallenge.org/cv/survey/cvpr2019_summaries/listall/

Published in: Technology
  • Be the first to comment

  • Be the first to like this

【CVPR 2019】UniformFace: Learning Deep Equidistributed Representation for Face Recognition

  1. 1. 1 http://xpaperchallenge.org/cv/ UniformFace: Learning Deep Equidistributed Representation for Face Recognition Yueqi Duan123, Jiwen Lu123, Jie Zhou123 1Department of Automation, Tsinghua University, China 2State Key Lab of Intelligent Technologies and Systems 3Beijing National Research Center for Information Science and Technology
  2. 2. 2 研究背景 • 顔認証は重要技術であり様々な⼿法が提案されている – Dicriminativeな特徴を得ることを⽬指したcontrastive loss, center loss, L-Softmaxなど – データ間のユークリッド距離を制限するのではなく,⾓度を制限する A-Softmaxなどは特に注⽬されている
  3. 3. 3 研究背景 • データ全体を特徴空間中にどのように分布させるか については考えていない • しかしそれら既存の研究はクラス間の距離を⼤きく, クラス内の距離を⼩さくすることに注視 特徴空間に無駄な部分ができてしまう!
  4. 4. 4 研究⽬的 • データ全体の特徴空間中での分布は重要と考えられる – データが特徴空間の⼀部のみに分布している可能性 – クラス間距離の分散が⼤きいと誤分類につながる データが特徴空間中に均⼀に分布するような 新たな損失関数を提案し,精度向上を⽬指す
  5. 5. 5 論⽂の概要 • データ全体が特徴空間中でより均⼀に分布するような 損失関数,UniformLossの提案を⾏った. – 球の表⾯上の電荷のポテンシャルエナジーは,それが等分布するとき に最⼩になるという点から着想を得ている • 既存のSphereFaceやCosFaceなどのSoTA⼿法に対して 単純にUniformLossを加えるだけで精度を向上できた
  6. 6. 6 先⾏研究|SphereFace (A-Softmax) 通常のsoftmax | 𝑾𝒋| = 1, 𝑏) = 0に正規化 変形softmax
  7. 7. 7 先⾏研究|SphereFace (A-Softmax) 変形softmax 対象クラスに マージンmをかける A-softmax
  8. 8. 8 先⾏研究|SphereFace (A-Softmax) A-softmax • クラス間の⾓度を⼤きくしつつクラス内が⼩さい球内 にまとまるようにする • 特徴空間にどのように分布させるかは考えていない
  9. 9. 9 提案⼿法 • 各クラスの中⼼を等価の電荷と考えると,それらのポテンシャ ルは等分布した時に最⼩になる(クラス間距離が⼀定に)
  10. 10. 10 提案⼿法 • クーロンの法則をもとに各クラス中⼼cj間の ポテンシャルは次のように考えられる クーロン⼒: ポテンシャル:
  11. 11. 11 提案⼿法 • 最終的な損失関数UniformLossは次のような形になる M:クラス数 • 中⼼cjの更新は次で⾏う n:ミニバッチ中のサンプル数,δ(.):デルタ関数(0 or 1)
  12. 12. 12 • UniformLossをA-softmaxと合わせて利⽤する λ=0の時は通常の損失と同じ 提案⼿法
  13. 13. 13 提案⼿法|アルゴリズム A-softmaxとUniformLossで同時に更新するのが重要
  14. 14. 14 実験|データセット 以下のデータセットで性能を検証 • The MegaFace Dataset – 690Kの個⼈について100万を超える画像 • The IJB-A Dataset – 500⼈の個⼈について2042個のビデオと5397枚の画像 • The YTF Dataset – Youtubeから得た3425⼈の画像.様々な姿勢や環境 • The LFW Dataset – Wildで撮影された5749⼈についての13233の画像
  15. 15. 15 実験|MegaFaceでの実験 以False Accepted RateとTrue Aで評価 UniformLossを加える だけで精度が⼤きく向上
  16. 16. 16 実験|MegaFace上で分布の均⼀性の評価 クラス間距離の平均,分散,最も近い1000クラス間距離の平均 想定通り,クラス間距離は均⼀に離れていることがわかる
  17. 17. 17 実験|UniformLossの汎⽤性の評価 Angular margin系の損失関数にUniformLossを追加する UniformLossの追加により精度を向上できている
  18. 18. 18 Verificationとidentificationを⾏いFARとTARで評価 PRNなどが姿勢についての事前知識を利⽤しているにもかかわらず近 い精度を出せている.姿勢にばらつきがある場合でも有効と⾔える 実験|IJB-A
  19. 19. 19 実験|YTFとLFWでの実験 DeepFaceなどで複数モデルを利⽤しても提案⼿法が勝利
  20. 20. 20 実験|Ablation Study A-softmaxのmを変更しつつ精度やクラス間距離を⽐較 Discriminativenessの向上に寄与するmを⼤きくしても UniformLossを⽤いた場合の⽅が性能が良い
  21. 21. 21 まとめ • データ全体が特徴空間中でより均⼀に分布するような 損失関数,UniformLossの提案を⾏った. – データが均⼀に分布することで精度の向上が期待できる – 球の表⾯上の電荷のポテンシャルエナジーは,それが等分布するとき に最⼩になるという点から着想を得ている • 既存のSphereFaceやCosFaceなどのSoTA⼿法に対して 単純にUniformLossを加えるだけで精度を向上できた – 様々な特徴を持つデータセット上で有効性を確認

×