SlideShare a Scribd company logo
1 of 22
Download to read offline
A d a F a c e : Q u a l i t y
A d a p t i v e M a r g i n f o r F a c e
R e c o g n i t i o n
M i n c h u l K i m , A n i l K . J a i n , X i a o m i n g L i u
D e p a r t m e n t o f C o m p u t e r S c i e n c e a n d E n g i n e e r i n g ,
M i c h i g a n S t a t e U n i v e r s i t y
自己紹介
前野 一樹
- パナソニックコネクト(株)で顔認証やってます( n年目)
- 育休からだいぶ経ちましたが変わらず子育てに追われてます
(発表中に乱入してくるかもしれません)
- 3年ぶりの発表でだいぶ緊張しているのでお手柔らかにお願いします
slideshare
Kazuki Maeno
Twitter
kuzma (@kuz44ma69)
Qiita
@kuz44ma69
CV
Face
Verification/
Identification
Face
Recognition
発 表 す る 論 文 に つ い て ( 1 / 3 ) 概 要
3
誰の顔か同定出来ない(=無理ゲーな)画像が学習データに存在
⇒ 顔認証では無視すべきところを特徴としてしまうモデルに
問題
無理ゲーなサンプルを重要視しすぎない損失関数を提案
やってること1
提案の妥当性を頑張って検証
やってること2
発 表 す る 論 文 に つ い て ( 2 / 3 ) : 関 連 リ ン ク 集
■ 公式
- arxiv
- CVPR 2022, CVPR 2022 Oral 動画
- 著者所属: Michigan State University(MSU)のComputer Vision Lab
■ 解説
- cvpaper.challenge CVPR2022 網羅的サーベイ # 職場の同僚がまとめてくれていました
- MoT Karasawaさんの顔認証の損失関数まとめ資料の中でも紹介
- takoroyさん解説記事
- (MoT Plot Hongさんの顔画像品質のまとめ資料も関連分野把握の参考になりそう)
4
発 表 す る 論 文 に つ い て ( 3 / 3 ) : 自 分 の 発 表 と の 繋 が り
ICCV 2019読み会で紹介した論文と、同じラボの、少し似た系統の論文
5
“Anil”の誤りです…
(今回見返して気づいた…)
( 独 断 と 偏 見 に 基 づ く ) 関 連 論 文 年 表
ざっくり関連論文(リンク埋込してます)をピックアップするとこんな感じ
点線で繋いだものが比較的関係が強い(と思う). 特にArcFaceとMagFace
6
ArcFace
(CVPR 2019)
L-Softmax
(ICML 2016)
MV-ArcFace
(AAAI 2020)
AdaFace
(CVPR 2022)
PFE
(ICCV 2019)
ERS
(2021)
L2-Softmax / Crystal Loss
(2017/2018)
Automatic Face Image Quality Prediction
(2017)
CFSM
(ECCV 2022)
URL
(CVPR 2020)
MSU
MSU
MSU
MSU
MSU
MSU
CosFace
(CVPR 2018)
2016
損失関数
顔画像品質
(Set/Video-Based)
損失関数
X
(顔画像)品質
低品質耐性
2022
CurricularFace
(CVPR 2020)
Adaptiveの導入
Marginベースの
デファクト
Qualityを
認証モデルと紐づけ
Quality推定の自動化
Marginベースの
はじまり?
QualityとL2ノルムの関係
MagFace
(CVPR 2021)
2019
いらんかも
Qualityを認証モデルの
学習に活用
低Qualityのテスト精度への
影響大きすぎ問題言及
データ拡張最適化
In 顔認証
Difficulty(Quality)を
考慮したMargin
Difficultyと
Qualityの分離
A r c F a c e : A d d i t i v e A n g u l a r M a r g i n L o s s f o r
D e e p F a c e R e c o g n i t i o n
顔認証の損失関数でデファクトと言えるであろうArcFace (CVPR2019)
正解クラスの分類をcos類似度で角度mだけ難しくしてからsoftmax・cross entropyする
このmをマージンと呼ぶ
7
クラスの代表ベクトル
(がクラス数Cだけ並んだもの)
=最後のFC層/Classifier
クラスの代表ベクトル
と画像xのcos類似度
(がクラス数Cだけ並んだもの)
正解クラス以外は
いつも通り(マージン無)の意
Yu4uさんのQiita記事から引用
(本家ArcFaceの図より見やすい)
M a g F a c e : A U n i v e r s a l R e p r e s e n t a t i o n f o r
F a c e R e c o g n i t i o n a n d Q u a l i t y A s s e s s m e n t
- Qualityが低い=認識が難しいと仮定し、難しいサンプルを過学習しないようにしたい
⇒ マージンmを可変にして、Hardサンプルの分類が難しくなりすぎないように調整
- QualityがL2ノルムとして現れるよう、L2ノルムに基づきマージンが変化する損失を提案
⇒ (結果的に)L2ノルムによるQualityの推定も可能に
8
𝑎𝑖=L2ノルム ⇒ L2ノルムでマージンが変化
L2ノルム
赤点線
=クラス中心のベクトル
Hard
中心となす角: 大
L2ノルム: 小
Easy
中心となす角: 小
L2ノルム: 大
(横軸)cosθ:クラス中心となす角
(縦軸): L2ノルム
ArcFaceとの差分
𝑚(𝑎𝑖): L2ノルム小 ⇒ マージン小 ⇒ 損失小
𝑔(𝑎𝑖): L2ノルム小 ⇒ gの値(=損失)大
⇒ gによる正則化でバランスを取ってる
A d a F a c e で ” や り た い ” こ と
通常のArcFace: 悪影響する超低品質な画像が重要視されてしまう (MagFaceと同じ思い)
Hardさでマージンを決めると、高画質なHardを過少に強調してしまう (MagFaceの問題)
⇒ 品質的に無理ゲーなサンプルの影響は抑え、そうでないHardサンプルは重要視したい
9
A d a F a c e で ” や っ て る ” こ と
- 品質に応じたマージンを設定 (MagFaceと一緒だが式が違う)
- 品質≒L2ノルムとして、ミニバッチのL2ノルム値で正規化(標準化)した値を利用
- (ついでに、)ArcFace(↓のangle)とCosFace(↓のadd)のマージンのつけ方をがっちゃんこ
10
L 2 ノ ル ム で 品 質 評 価 値 を 代 替 し て 大 丈 夫 な ん で す ?
品質の指標(BRISQUE)とL2ノルムの相関を調査
- 学習初期からL2ノルムは品質評価指標と高い(?)相関がみられる
⇒ L2ノルムを品質の指標として採用して大丈夫!
- 正解クラスの予測確率(的なlogits->softmax取った時の値)は相関が低そう
11
Epochごとの相関の変化
緑: L2ノルム (Feature Norm)
橙: 予測確率
最終Epochの相関分析 (L2 Norm)
相関がみられる
最終Epochの相関分析 (予測確率)
相関がみられない
M a g F a c e と の ” お 気 持 ち ” 的 な 違 い
- MagFaceは、Face QualityはImage Qualityだけで上手く扱えない(↓の図)から、
difficultyでとらえようと思っている
↔ AdaFaceは、Image Qualityは気にしつつ、顔特有な難しさは解くべきだと思っている
(高画質で顔が横向いてるとかは解くべきだけど、ボケボケとかは捨てる)
- MagFaceは、L2ノルムはQualityを指すように学習しようとしている
↔ AdaFaceは、L2ノルムは(Image) Qualityと相関するため学習(backprop)しない
12
一般的な画像の品質
(BrisqueはAdaFaceで登場)
これらを基準に除外しても、
エラーが減らない
⇒ Face Quality != Image Quality
Brisque
Piqe
Niqe
画像の評価からの除外率
Qualityが低い画像から順に除外する
本人エラー率
(本人を他人とした割合)
低いと嬉しい
better
テスト時に無理ゲーサンプルを
なくしていくとどうなるか
という評価
M a g F a c e と の ” 実 際 ” 的 な 違 い
- ハイパラの数: MagFace: 多い(5), AdaFace: 少ない(2 ※EMAのためのパラメタ除く)
# MagFace: うち2つのハイパラミスるだけでArcFaceに届かない…
# AdaFace: どっちもそこまで酷い精度変化はしないっぽい
- 実際のマージンの範囲: MagFace: 狭い(0.46~0.53), AdaFace: 広い(-0.5~0.5))
- 品質推定の可否: MagFace: 出来る, AdaFace: 出来ない
13
AdaFace
勾 配 ( の ス ケ ー ル ) か ら 提 案 手 法 が 機 能 し て い る か 確 認
- ★品質が高い場合は、難しいサンプルを強調 (黒丸 vs 黒三角: 黒三角の方がGST大)
- 品質が低い場合は、簡単なサンプルを強調 (白丸 vs 白三角: 白丸の方がGST大)
(品質が低い(=L2ノルムが小さい)方が、高い場合より常に強調されてるけど良い??)
14
本人クラスの予測確率
ロスの識別器による微分
j番目クラスとしてるが、
本人クラスと思ってOK
スカラー
同じ
|g|を学習への寄与度(学習における強調度)
とみなして↑の図を作成
前 頁 の G S T に つ い て の 疑 問
- Curricular Faceは正解クラスはArcFaceと同じマージンで、
他人クラスの方が高い類似度だと違うマージンになる
GSTの計算式は正解クラスに対してのことしか考えてないのに、
図が変化する意味が分からん
(negative classは無視するって書いてるし)
- MagFaceは実際はハイパラで制御してマージンの差はそんなに出ないと思うが、
本当にあんなにスケールに差がある?
MagFaceの世界で正規化してる?? そうだとして、手法間で同じスケールだとどう?
15
結 果 : S O T A と の 比 較
AdaFaceがいい感じなことを確認
16
結 果 ( A b l a t i o n ) : ハ イ パ ラ の 影 響
- h, m: どう設定してもまぁまぁ良い(CF同等以上)感じ. 特に低品質評価(LQ)は強い
- Proxy(マージンの調整指標): L2ノルム > 予測確率(𝑃𝑦𝑖
) > 画像品質(BRISQUE)
画像品質は計算コストの関係でデータ拡張なしのケースを事前計算
⇒ 学習中にデータ拡張を反映して計算できるためにL2ノルムが良い??
17
hの変化
mの変化
Proxyの変化
結 果 ( A b l a t i o n ) : デ ー タ 拡 張 の 適 用 確 率 の 影 響 検 証
- Curricular Faceはデータ拡張すると精度が下がる
- AdaFaceだと適用した方が精度が上がる
(無理ゲーな拡張になった時にマージンを控えめにする仕組みが上手く効いてそう)
18
Bag of Tricks for Image Classification
with Convolutional Neural Networks
(CVPR 2019)のデータ拡張を採用
顔認証だと
ImageNet向けの拡張だと
精度低下しがち
(拡張で認証できない画像出来がちなため)
だけど大丈夫
そうAdaFaceなら
結 果 ( デ モ )
- 左AdaFaceだとBLUR++の悪条件でもたまに認証出来ている
- 右だと認証できないうえに、False Pos(他人誤り)がしばしば発生している
19
H a r n e s s i n g U n r e c o g n i z a b l e F a c e s f o r
I m p r o v i n g F a c e R e c o g n i t i o n ( E R S )
本人ペアスコアが低い話も問題だが、他人ペア(False Pos)スコアが高い方がやばい問題
低品質な画像は特徴空間でクラスタ形成(=高い他人ペアスコアを量産)すると言及
前頁のデモで、こういう他人ペアがArcFaceで出てAdaFaceで出てないところが気になる
(他人ペアスコアが減少して閾値が下がったことで高精度化したのか、
本人ペアスコアが増加して閾値を超えるケースが増えたことで高精度したのか、気になる)
20
発 表 す る 論 文 に つ い て ま と め
21
誰の顔か同定出来ない(=無理ゲーな)画像が学習データに存在
⇒ 顔認証では無視すべきところを特徴としてしまうモデルに
問題
無理ゲーなサンプルを重要視しすぎない損失関数を提案
具体的には、L2ノルムを品質の評価指標とみなし、
L2ノルムのミニバッチにおける相対的な大きさから、マージンを変化させる方式を提案
やってること1
提案の妥当性を頑張って検証
具体的には、①L2ノルムが品質評価指標(BRISQUE)と学習初期から相関することを確認、
②勾配のスケールの大きさ(≒学習への寄与度)が、クラス中心から離れた際に、(近い場合
に比べ)、低品質である場合は小さく、高品質である場合は大きくなることを確認
やってること2
所 感
- 問題設定が面白く好き
- 画像品質と相関あるからL2ノルムというのは、まぁ分かるという気持ちと、
本当にそれでよいんか?という気持ちを感じる (相関もそこまで高くない気がする)
GSTの解析も、低品質(小L2)がそもそも高品質(大L2)より大きいのはどうなん?と思う
- ArcFaceとCosFaceをがっちゃんこしたら良くなるというのは、ArcFaceの公式実装で実
験結果が(昔は)示されていて、AdaFaceのメインアイディアで良くなったのか、がっちゃ
んこ部分で良くなったのか気になる
- 同じラボのPFEはGitHubのIssuesでボロクソにたたかれているので、今回の実装は大丈
夫だろうかと若干心配(今回は結構closedになってるし大丈夫そうではある)
22

More Related Content

What's hot

[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB ImagesDeep Learning JP
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたいTakuji Tahara
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向Kensho Hara
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告GentaYoshimura
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Hideki Tsunashima
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめDeep Learning JP
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
 

What's hot (20)

[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
MICの解説
MICの解説MICの解説
MICの解説
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 

Similar to AdaFace(CVPR2022)

Probabilistic face embeddings
Probabilistic face embeddingsProbabilistic face embeddings
Probabilistic face embeddingsKazuki Maeno
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告Hiroyuki TOKUNAGA
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介Masayoshi Kondo
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)Takuji Tahara
 
CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日Atsushi Hashimoto
 
LS for Reinforcement Learning
LS for Reinforcement LearningLS for Reinforcement Learning
LS for Reinforcement Learningimlschedules
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdfkeiodig
 

Similar to AdaFace(CVPR2022) (11)

Probabilistic face embeddings
Probabilistic face embeddingsProbabilistic face embeddings
Probabilistic face embeddings
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
Contrastive learning 20200607
Contrastive learning 20200607Contrastive learning 20200607
Contrastive learning 20200607
 
Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)
 
CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日
 
Osaka.stan#2 chap5-1
Osaka.stan#2 chap5-1Osaka.stan#2 chap5-1
Osaka.stan#2 chap5-1
 
LS for Reinforcement Learning
LS for Reinforcement LearningLS for Reinforcement Learning
LS for Reinforcement Learning
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
 

Recently uploaded

SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 

Recently uploaded (14)

SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 

AdaFace(CVPR2022)

  • 1. A d a F a c e : Q u a l i t y A d a p t i v e M a r g i n f o r F a c e R e c o g n i t i o n M i n c h u l K i m , A n i l K . J a i n , X i a o m i n g L i u D e p a r t m e n t o f C o m p u t e r S c i e n c e a n d E n g i n e e r i n g , M i c h i g a n S t a t e U n i v e r s i t y
  • 2. 自己紹介 前野 一樹 - パナソニックコネクト(株)で顔認証やってます( n年目) - 育休からだいぶ経ちましたが変わらず子育てに追われてます (発表中に乱入してくるかもしれません) - 3年ぶりの発表でだいぶ緊張しているのでお手柔らかにお願いします slideshare Kazuki Maeno Twitter kuzma (@kuz44ma69) Qiita @kuz44ma69 CV Face Verification/ Identification Face Recognition
  • 3. 発 表 す る 論 文 に つ い て ( 1 / 3 ) 概 要 3 誰の顔か同定出来ない(=無理ゲーな)画像が学習データに存在 ⇒ 顔認証では無視すべきところを特徴としてしまうモデルに 問題 無理ゲーなサンプルを重要視しすぎない損失関数を提案 やってること1 提案の妥当性を頑張って検証 やってること2
  • 4. 発 表 す る 論 文 に つ い て ( 2 / 3 ) : 関 連 リ ン ク 集 ■ 公式 - arxiv - CVPR 2022, CVPR 2022 Oral 動画 - 著者所属: Michigan State University(MSU)のComputer Vision Lab ■ 解説 - cvpaper.challenge CVPR2022 網羅的サーベイ # 職場の同僚がまとめてくれていました - MoT Karasawaさんの顔認証の損失関数まとめ資料の中でも紹介 - takoroyさん解説記事 - (MoT Plot Hongさんの顔画像品質のまとめ資料も関連分野把握の参考になりそう) 4
  • 5. 発 表 す る 論 文 に つ い て ( 3 / 3 ) : 自 分 の 発 表 と の 繋 が り ICCV 2019読み会で紹介した論文と、同じラボの、少し似た系統の論文 5 “Anil”の誤りです… (今回見返して気づいた…)
  • 6. ( 独 断 と 偏 見 に 基 づ く ) 関 連 論 文 年 表 ざっくり関連論文(リンク埋込してます)をピックアップするとこんな感じ 点線で繋いだものが比較的関係が強い(と思う). 特にArcFaceとMagFace 6 ArcFace (CVPR 2019) L-Softmax (ICML 2016) MV-ArcFace (AAAI 2020) AdaFace (CVPR 2022) PFE (ICCV 2019) ERS (2021) L2-Softmax / Crystal Loss (2017/2018) Automatic Face Image Quality Prediction (2017) CFSM (ECCV 2022) URL (CVPR 2020) MSU MSU MSU MSU MSU MSU CosFace (CVPR 2018) 2016 損失関数 顔画像品質 (Set/Video-Based) 損失関数 X (顔画像)品質 低品質耐性 2022 CurricularFace (CVPR 2020) Adaptiveの導入 Marginベースの デファクト Qualityを 認証モデルと紐づけ Quality推定の自動化 Marginベースの はじまり? QualityとL2ノルムの関係 MagFace (CVPR 2021) 2019 いらんかも Qualityを認証モデルの 学習に活用 低Qualityのテスト精度への 影響大きすぎ問題言及 データ拡張最適化 In 顔認証 Difficulty(Quality)を 考慮したMargin Difficultyと Qualityの分離
  • 7. A r c F a c e : A d d i t i v e A n g u l a r M a r g i n L o s s f o r D e e p F a c e R e c o g n i t i o n 顔認証の損失関数でデファクトと言えるであろうArcFace (CVPR2019) 正解クラスの分類をcos類似度で角度mだけ難しくしてからsoftmax・cross entropyする このmをマージンと呼ぶ 7 クラスの代表ベクトル (がクラス数Cだけ並んだもの) =最後のFC層/Classifier クラスの代表ベクトル と画像xのcos類似度 (がクラス数Cだけ並んだもの) 正解クラス以外は いつも通り(マージン無)の意 Yu4uさんのQiita記事から引用 (本家ArcFaceの図より見やすい)
  • 8. M a g F a c e : A U n i v e r s a l R e p r e s e n t a t i o n f o r F a c e R e c o g n i t i o n a n d Q u a l i t y A s s e s s m e n t - Qualityが低い=認識が難しいと仮定し、難しいサンプルを過学習しないようにしたい ⇒ マージンmを可変にして、Hardサンプルの分類が難しくなりすぎないように調整 - QualityがL2ノルムとして現れるよう、L2ノルムに基づきマージンが変化する損失を提案 ⇒ (結果的に)L2ノルムによるQualityの推定も可能に 8 𝑎𝑖=L2ノルム ⇒ L2ノルムでマージンが変化 L2ノルム 赤点線 =クラス中心のベクトル Hard 中心となす角: 大 L2ノルム: 小 Easy 中心となす角: 小 L2ノルム: 大 (横軸)cosθ:クラス中心となす角 (縦軸): L2ノルム ArcFaceとの差分 𝑚(𝑎𝑖): L2ノルム小 ⇒ マージン小 ⇒ 損失小 𝑔(𝑎𝑖): L2ノルム小 ⇒ gの値(=損失)大 ⇒ gによる正則化でバランスを取ってる
  • 9. A d a F a c e で ” や り た い ” こ と 通常のArcFace: 悪影響する超低品質な画像が重要視されてしまう (MagFaceと同じ思い) Hardさでマージンを決めると、高画質なHardを過少に強調してしまう (MagFaceの問題) ⇒ 品質的に無理ゲーなサンプルの影響は抑え、そうでないHardサンプルは重要視したい 9
  • 10. A d a F a c e で ” や っ て る ” こ と - 品質に応じたマージンを設定 (MagFaceと一緒だが式が違う) - 品質≒L2ノルムとして、ミニバッチのL2ノルム値で正規化(標準化)した値を利用 - (ついでに、)ArcFace(↓のangle)とCosFace(↓のadd)のマージンのつけ方をがっちゃんこ 10
  • 11. L 2 ノ ル ム で 品 質 評 価 値 を 代 替 し て 大 丈 夫 な ん で す ? 品質の指標(BRISQUE)とL2ノルムの相関を調査 - 学習初期からL2ノルムは品質評価指標と高い(?)相関がみられる ⇒ L2ノルムを品質の指標として採用して大丈夫! - 正解クラスの予測確率(的なlogits->softmax取った時の値)は相関が低そう 11 Epochごとの相関の変化 緑: L2ノルム (Feature Norm) 橙: 予測確率 最終Epochの相関分析 (L2 Norm) 相関がみられる 最終Epochの相関分析 (予測確率) 相関がみられない
  • 12. M a g F a c e と の ” お 気 持 ち ” 的 な 違 い - MagFaceは、Face QualityはImage Qualityだけで上手く扱えない(↓の図)から、 difficultyでとらえようと思っている ↔ AdaFaceは、Image Qualityは気にしつつ、顔特有な難しさは解くべきだと思っている (高画質で顔が横向いてるとかは解くべきだけど、ボケボケとかは捨てる) - MagFaceは、L2ノルムはQualityを指すように学習しようとしている ↔ AdaFaceは、L2ノルムは(Image) Qualityと相関するため学習(backprop)しない 12 一般的な画像の品質 (BrisqueはAdaFaceで登場) これらを基準に除外しても、 エラーが減らない ⇒ Face Quality != Image Quality Brisque Piqe Niqe 画像の評価からの除外率 Qualityが低い画像から順に除外する 本人エラー率 (本人を他人とした割合) 低いと嬉しい better テスト時に無理ゲーサンプルを なくしていくとどうなるか という評価
  • 13. M a g F a c e と の ” 実 際 ” 的 な 違 い - ハイパラの数: MagFace: 多い(5), AdaFace: 少ない(2 ※EMAのためのパラメタ除く) # MagFace: うち2つのハイパラミスるだけでArcFaceに届かない… # AdaFace: どっちもそこまで酷い精度変化はしないっぽい - 実際のマージンの範囲: MagFace: 狭い(0.46~0.53), AdaFace: 広い(-0.5~0.5)) - 品質推定の可否: MagFace: 出来る, AdaFace: 出来ない 13 AdaFace
  • 14. 勾 配 ( の ス ケ ー ル ) か ら 提 案 手 法 が 機 能 し て い る か 確 認 - ★品質が高い場合は、難しいサンプルを強調 (黒丸 vs 黒三角: 黒三角の方がGST大) - 品質が低い場合は、簡単なサンプルを強調 (白丸 vs 白三角: 白丸の方がGST大) (品質が低い(=L2ノルムが小さい)方が、高い場合より常に強調されてるけど良い??) 14 本人クラスの予測確率 ロスの識別器による微分 j番目クラスとしてるが、 本人クラスと思ってOK スカラー 同じ |g|を学習への寄与度(学習における強調度) とみなして↑の図を作成
  • 15. 前 頁 の G S T に つ い て の 疑 問 - Curricular Faceは正解クラスはArcFaceと同じマージンで、 他人クラスの方が高い類似度だと違うマージンになる GSTの計算式は正解クラスに対してのことしか考えてないのに、 図が変化する意味が分からん (negative classは無視するって書いてるし) - MagFaceは実際はハイパラで制御してマージンの差はそんなに出ないと思うが、 本当にあんなにスケールに差がある? MagFaceの世界で正規化してる?? そうだとして、手法間で同じスケールだとどう? 15
  • 16. 結 果 : S O T A と の 比 較 AdaFaceがいい感じなことを確認 16
  • 17. 結 果 ( A b l a t i o n ) : ハ イ パ ラ の 影 響 - h, m: どう設定してもまぁまぁ良い(CF同等以上)感じ. 特に低品質評価(LQ)は強い - Proxy(マージンの調整指標): L2ノルム > 予測確率(𝑃𝑦𝑖 ) > 画像品質(BRISQUE) 画像品質は計算コストの関係でデータ拡張なしのケースを事前計算 ⇒ 学習中にデータ拡張を反映して計算できるためにL2ノルムが良い?? 17 hの変化 mの変化 Proxyの変化
  • 18. 結 果 ( A b l a t i o n ) : デ ー タ 拡 張 の 適 用 確 率 の 影 響 検 証 - Curricular Faceはデータ拡張すると精度が下がる - AdaFaceだと適用した方が精度が上がる (無理ゲーな拡張になった時にマージンを控えめにする仕組みが上手く効いてそう) 18 Bag of Tricks for Image Classification with Convolutional Neural Networks (CVPR 2019)のデータ拡張を採用 顔認証だと ImageNet向けの拡張だと 精度低下しがち (拡張で認証できない画像出来がちなため) だけど大丈夫 そうAdaFaceなら
  • 19. 結 果 ( デ モ ) - 左AdaFaceだとBLUR++の悪条件でもたまに認証出来ている - 右だと認証できないうえに、False Pos(他人誤り)がしばしば発生している 19
  • 20. H a r n e s s i n g U n r e c o g n i z a b l e F a c e s f o r I m p r o v i n g F a c e R e c o g n i t i o n ( E R S ) 本人ペアスコアが低い話も問題だが、他人ペア(False Pos)スコアが高い方がやばい問題 低品質な画像は特徴空間でクラスタ形成(=高い他人ペアスコアを量産)すると言及 前頁のデモで、こういう他人ペアがArcFaceで出てAdaFaceで出てないところが気になる (他人ペアスコアが減少して閾値が下がったことで高精度化したのか、 本人ペアスコアが増加して閾値を超えるケースが増えたことで高精度したのか、気になる) 20
  • 21. 発 表 す る 論 文 に つ い て ま と め 21 誰の顔か同定出来ない(=無理ゲーな)画像が学習データに存在 ⇒ 顔認証では無視すべきところを特徴としてしまうモデルに 問題 無理ゲーなサンプルを重要視しすぎない損失関数を提案 具体的には、L2ノルムを品質の評価指標とみなし、 L2ノルムのミニバッチにおける相対的な大きさから、マージンを変化させる方式を提案 やってること1 提案の妥当性を頑張って検証 具体的には、①L2ノルムが品質評価指標(BRISQUE)と学習初期から相関することを確認、 ②勾配のスケールの大きさ(≒学習への寄与度)が、クラス中心から離れた際に、(近い場合 に比べ)、低品質である場合は小さく、高品質である場合は大きくなることを確認 やってること2
  • 22. 所 感 - 問題設定が面白く好き - 画像品質と相関あるからL2ノルムというのは、まぁ分かるという気持ちと、 本当にそれでよいんか?という気持ちを感じる (相関もそこまで高くない気がする) GSTの解析も、低品質(小L2)がそもそも高品質(大L2)より大きいのはどうなん?と思う - ArcFaceとCosFaceをがっちゃんこしたら良くなるというのは、ArcFaceの公式実装で実 験結果が(昔は)示されていて、AdaFaceのメインアイディアで良くなったのか、がっちゃ んこ部分で良くなったのか気になる - 同じラボのPFEはGitHubのIssuesでボロクソにたたかれているので、今回の実装は大丈 夫だろうかと若干心配(今回は結構closedになってるし大丈夫そうではある) 22