Submit Search
Upload
tvmf-similarity
•
0 likes
•
549 views
K
Kyushu University
Follow
t-vMF Similarity
Read less
Read more
Technology
Report
Share
Report
Share
1 of 36
Download now
Download to read offline
Recommended
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
Deep Learning JP
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
tancoro
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
Recommended
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
Deep Learning JP
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
tancoro
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
Deep Learning JP
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
バンディット問題について
バンディット問題について
jkomiyama
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
音声認識と深層学習
音声認識と深層学習
Preferred Networks
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
【論文読み会】Self-Attention Generative Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
cvpaper. challenge
1607.01152.pdf
1607.01152.pdf
AnkitBiswas31
Knowledge extraction from support vector machines
Knowledge extraction from support vector machines
Eyad Alshami
More Related Content
What's hot
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
Deep Learning JP
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
バンディット問題について
バンディット問題について
jkomiyama
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
音声認識と深層学習
音声認識と深層学習
Preferred Networks
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
【論文読み会】Self-Attention Generative Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
cvpaper. challenge
What's hot
(20)
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
生成モデルの Deep Learning
生成モデルの Deep Learning
coordinate descent 法について
coordinate descent 法について
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
backbone としての timm 入門
backbone としての timm 入門
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
バンディット問題について
バンディット問題について
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
音声認識と深層学習
音声認識と深層学習
ドメイン適応の原理と応用
ドメイン適応の原理と応用
【論文読み会】Self-Attention Generative Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
Similar to tvmf-similarity
1607.01152.pdf
1607.01152.pdf
AnkitBiswas31
Knowledge extraction from support vector machines
Knowledge extraction from support vector machines
Eyad Alshami
Dycops2019
Dycops2019
Jéssyca Bessa
Dimension Reduction: What? Why? and How?
Dimension Reduction: What? Why? and How?
Kazi Toufiq Wadud
NIPS2007: structured prediction
NIPS2007: structured prediction
zukun
Computational Biology, Part 4 Protein Coding Regions
Computational Biology, Part 4 Protein Coding Regions
butest
Applications Of Evt In Financial Markets
Applications Of Evt In Financial Markets
misterval
I1
I1
Maulik (N.) Shah
NIPS2007: learning using many examples
NIPS2007: learning using many examples
zukun
Machine Learning Algorithms (Part 1)
Machine Learning Algorithms (Part 1)
Zihui Li
2014 anu-canberra-streaming
2014 anu-canberra-streaming
c.titus.brown
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
cvpaper. challenge
Unit05 dbms
Unit05 dbms
arnold 7490
designanalysisalgorithm_unit-v-part2.pptx
designanalysisalgorithm_unit-v-part2.pptx
arifimad15
New approaches for boosting to uniformity
New approaches for boosting to uniformity
Nikita Kazeev
Machine Learning Foundations for Professional Managers
Machine Learning Foundations for Professional Managers
Albert Y. C. Chen
Recombination and LinkageA Three point test cross in Drosophil.docx
Recombination and LinkageA Three point test cross in Drosophil.docx
sodhi3
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
Roots of equations
Roots of equations
shopnohinami
Bioinformatica 10-11-2011-t5-database searching
Bioinformatica 10-11-2011-t5-database searching
Prof. Wim Van Criekinge
Similar to tvmf-similarity
(20)
1607.01152.pdf
1607.01152.pdf
Knowledge extraction from support vector machines
Knowledge extraction from support vector machines
Dycops2019
Dycops2019
Dimension Reduction: What? Why? and How?
Dimension Reduction: What? Why? and How?
NIPS2007: structured prediction
NIPS2007: structured prediction
Computational Biology, Part 4 Protein Coding Regions
Computational Biology, Part 4 Protein Coding Regions
Applications Of Evt In Financial Markets
Applications Of Evt In Financial Markets
I1
I1
NIPS2007: learning using many examples
NIPS2007: learning using many examples
Machine Learning Algorithms (Part 1)
Machine Learning Algorithms (Part 1)
2014 anu-canberra-streaming
2014 anu-canberra-streaming
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
Unit05 dbms
Unit05 dbms
designanalysisalgorithm_unit-v-part2.pptx
designanalysisalgorithm_unit-v-part2.pptx
New approaches for boosting to uniformity
New approaches for boosting to uniformity
Machine Learning Foundations for Professional Managers
Machine Learning Foundations for Professional Managers
Recombination and LinkageA Three point test cross in Drosophil.docx
Recombination and LinkageA Three point test cross in Drosophil.docx
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Roots of equations
Roots of equations
Bioinformatica 10-11-2011-t5-database searching
Bioinformatica 10-11-2011-t5-database searching
Recently uploaded
"Federated learning: out of reach no matter how close",Oleksandr Lapshyn
"Federated learning: out of reach no matter how close",Oleksandr Lapshyn
Fwdays
AI as an Interface for Commercial Buildings
AI as an Interface for Commercial Buildings
Memoori
Integration and Automation in Practice: CI/CD in Mule Integration and Automat...
Integration and Automation in Practice: CI/CD in Mule Integration and Automat...
Patryk Bandurski
Install Stable Diffusion in windows machine
Install Stable Diffusion in windows machine
Padma Pradeep
Designing IA for AI - Information Architecture Conference 2024
Designing IA for AI - Information Architecture Conference 2024
Enterprise Knowledge
SQL Database Design For Developers at php[tek] 2024
SQL Database Design For Developers at php[tek] 2024
Scott Keck-Warren
My Hashitalk Indonesia April 2024 Presentation
My Hashitalk Indonesia April 2024 Presentation
Ridwan Fadjar
"ML in Production",Oleksandr Bagan
"ML in Production",Oleksandr Bagan
Fwdays
Automating Business Process via MuleSoft Composer | Bangalore MuleSoft Meetup...
Automating Business Process via MuleSoft Composer | Bangalore MuleSoft Meetup...
shyamraj55
"Debugging python applications inside k8s environment", Andrii Soldatenko
"Debugging python applications inside k8s environment", Andrii Soldatenko
Fwdays
Unblocking The Main Thread Solving ANRs and Frozen Frames
Unblocking The Main Thread Solving ANRs and Frozen Frames
Sinan KOZAK
APIForce Zurich 5 April Automation LPDG
APIForce Zurich 5 April Automation LPDG
MarianaLemus7
SIP trunking in Janus @ Kamailio World 2024
SIP trunking in Janus @ Kamailio World 2024
Lorenzo Miniero
WordPress Websites for Engineers: Elevate Your Brand
WordPress Websites for Engineers: Elevate Your Brand
gvaughan
"LLMs for Python Engineers: Advanced Data Analysis and Semantic Kernel",Oleks...
"LLMs for Python Engineers: Advanced Data Analysis and Semantic Kernel",Oleks...
Fwdays
costume and set research powerpoint presentation
costume and set research powerpoint presentation
phoebematthew05
Beyond Boundaries: Leveraging No-Code Solutions for Industry Innovation
Beyond Boundaries: Leveraging No-Code Solutions for Industry Innovation
Safe Software
Advanced Test Driven-Development @ php[tek] 2024
Advanced Test Driven-Development @ php[tek] 2024
Scott Keck-Warren
Understanding the Laravel MVC Architecture
Understanding the Laravel MVC Architecture
Pixlogix Infotech
Tech-Forward - Achieving Business Readiness For Copilot in Microsoft 365
Tech-Forward - Achieving Business Readiness For Copilot in Microsoft 365
2toLead Limited
Recently uploaded
(20)
"Federated learning: out of reach no matter how close",Oleksandr Lapshyn
"Federated learning: out of reach no matter how close",Oleksandr Lapshyn
AI as an Interface for Commercial Buildings
AI as an Interface for Commercial Buildings
Integration and Automation in Practice: CI/CD in Mule Integration and Automat...
Integration and Automation in Practice: CI/CD in Mule Integration and Automat...
Install Stable Diffusion in windows machine
Install Stable Diffusion in windows machine
Designing IA for AI - Information Architecture Conference 2024
Designing IA for AI - Information Architecture Conference 2024
SQL Database Design For Developers at php[tek] 2024
SQL Database Design For Developers at php[tek] 2024
My Hashitalk Indonesia April 2024 Presentation
My Hashitalk Indonesia April 2024 Presentation
"ML in Production",Oleksandr Bagan
"ML in Production",Oleksandr Bagan
Automating Business Process via MuleSoft Composer | Bangalore MuleSoft Meetup...
Automating Business Process via MuleSoft Composer | Bangalore MuleSoft Meetup...
"Debugging python applications inside k8s environment", Andrii Soldatenko
"Debugging python applications inside k8s environment", Andrii Soldatenko
Unblocking The Main Thread Solving ANRs and Frozen Frames
Unblocking The Main Thread Solving ANRs and Frozen Frames
APIForce Zurich 5 April Automation LPDG
APIForce Zurich 5 April Automation LPDG
SIP trunking in Janus @ Kamailio World 2024
SIP trunking in Janus @ Kamailio World 2024
WordPress Websites for Engineers: Elevate Your Brand
WordPress Websites for Engineers: Elevate Your Brand
"LLMs for Python Engineers: Advanced Data Analysis and Semantic Kernel",Oleks...
"LLMs for Python Engineers: Advanced Data Analysis and Semantic Kernel",Oleks...
costume and set research powerpoint presentation
costume and set research powerpoint presentation
Beyond Boundaries: Leveraging No-Code Solutions for Industry Innovation
Beyond Boundaries: Leveraging No-Code Solutions for Industry Innovation
Advanced Test Driven-Development @ php[tek] 2024
Advanced Test Driven-Development @ php[tek] 2024
Understanding the Laravel MVC Architecture
Understanding the Laravel MVC Architecture
Tech-Forward - Achieving Business Readiness For Copilot in Microsoft 365
Tech-Forward - Achieving Business Readiness For Copilot in Microsoft 365
tvmf-similarity
1.
• 表題 :
t-vMF Similarity for Regularizing Intra-Class Feature Distribution • 著者 : 小林匠さん(AIST) • 採択学会 : CVPR2021 • 被引用数 : 1 • 発見場所 : Twitter 0 人物識別に適用できそうな日本人論文!! t-vMF類似度
2.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 1 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
3.
A) 深層距離学習は初めましての方 → 一言文の言いたいことをイメージできれば🙆 B)
深層距離学習の熟練さん → 一言文に加えて手法のモチベーションも理解できれば🙆 C) 数学も扱い慣れている方 → ぜひご自身で導出プロセスを 踏んでみてください💪 2 これだけは理解してほしい🥺 t-vMF類似度 > Take-Home Message 【数学】スライドを読んでみてね😉
4.
3 入力画像から特徴量を抽出し所属クラスを予測する。 t-vMF類似度 > 背景 :
深層距離学習とは > 深層学習におけるクラス分類問題 https://tech-blog.optim.co.jp/entry/2021/10/01/100000 四足歩行 毛がふさふさ 目が大きい 耳が三角形
5.
4 抽出された特徴ベクトルは特徴空間上で分離可能。 t-vMF類似度 > 背景 :
深層距離学習とは > 特徴ベクトルの埋め込み https://tech-blog.optim.co.jp/entry/2021/10/01/100000 四足歩行 毛がふさふさ 目が大きい 耳が三角形 分離可能な特徴量 猫 犬
6.
5 異なるクラスなのに類似度が高くなってしまうことがある。 t-vMF類似度 > 背景 :
深層距離学習とは > 深層学習モデルの難点 https://tech-blog.optim.co.jp/entry/2021/10/01/100000 猫 犬 距 離 が 遠 い → 類 似 度 が 低 い 距離が近い→類似度が高い 犬 分離可能な特徴量
7.
6 同じクラス同士は近くなるように、別のクラス同士は遠くなるように学習する。 t-vMF類似度 > 背景 :
深層距離学習とは > 深層距離学習モデルのモチベーション https://tech-blog.optim.co.jp/entry/2021/10/01/100000 猫 犬 犬 距 離 が 遠 い → 類 似 度 が 低 い 距離が近い→類似度が高い 犬 距 離 が 遠 い → 類 似 度 が 低 い 犬 猫 距離が近い →類似度が高い 分離可能な特徴量 識別的な特徴量 「クラス内分散」は小さく → 犬同士は集まる 「クラス間分散」は大きく → 犬と猫は離れる
8.
7 未知なクラスでも類似度を比較することで識別できる。 t-vMF類似度 > 背景 :
深層距離学習とは > 深層距離学習モデルの利点 https://tech-blog.optim.co.jp/entry/2021/10/01/100000 猫 犬 猫 犬 類似度小 犬 犬?猫? 犬 類似度小 知らない 動物! 分離可能な特徴量 識別的な特徴量
9.
8 特徴量抽出器の識別力の高いため、顔認証システム等に活用される。 t-vMF類似度 > 背景 :
深層距離学習とは > 深層距離学習モデルの応用先 https://tech-blog.optim.co.jp/entry/2021/10/01/100000
10.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 9 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
11.
犬 ユークリッド距離(直線距離) ユークリッド空間上に特徴抽出(例Triplet※1) 𝒅が小さい→類似度が高い Cos類似度 単位超球面上に特徴抽出(例 ArcFace※2) 𝐜𝐨𝐬 𝜽が大きい→類似度が高い t-vMF類似度はCos類似度を超えた新しい類似度である。 t-vMF類似度 >
どんなもの? > 深層距離学習で用いられる類似度 10 𝒅𝟏 𝒅𝟐 𝜃# 𝜃$ 0 0 ←ココ!! 猫 犬 猫 犬 犬 ※1 : Wang, Jiang, et al. “Learning fine-grained image similarity with deep ranking.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2014. 被引用数1137 ※2 : Deng, Jiankang, et al. “Arcface: Additive angular margin loss for deep face recognition.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019. 被引用数2013
12.
11 損失関数の導出過程で登場する内積を変更するだけ 【数学】t-vMF類似度 > どんなもの? >
深層距離学習で用いられる類似度 > なぜCos類似度? Margin Loss • SphereFace※3 : 𝜓 𝜃 = −1 % cos 𝑚𝜃 − 2𝑘, 𝜃 ∈ %& ' , %(# & ' • CosFace※4 : 𝜓 𝜃 = cos(𝜃 − 𝑚) • ArcFace : 𝜓 𝜃 = cos(𝜃 + 𝑚) ※3 : Liu, Weiyang, et al. “Sphereface: Deep hypersphere embedding for face recognition.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2017. 被引用数1685 ※4 : Wang, Hao, et al. “Cosface: Large margin cosine loss for deep face recognition.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2018. 被引用数1105 角度θにmargin(余白)を加える Softmax cross-entropy loss 分類器の重み𝑾と 入力画像の特徴𝒙の内積 ↓ 𝐜𝐨𝐬𝜽で書き換え可能 ↓ ↓
13.
12 t-vMF類似度は劣悪データセットでの精度向上に取り組む。 t-vMF類似度 > どんなもの? >
学習データセットの理想と現実 ※5: Deng, Jia, et al. “Imagenet: A large-scale hierarchical image database.” 2009 IEEE conference on computer vision and pattern recognition. Ieee, 2009. 被引用数 32404 大量 & バランスのとれたクラス分布 & ラベル付が綺麗 (例 ImageNet※5) 現実 : 劣悪データセット 小規模 & アンバランスなクラス分布 & ノイズ入りラベル 理想 : 健全データセット 犬1000枚 猫1000枚 犬100枚 猫1枚
14.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 13 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
15.
Cos類似度 t-vMF類似度 山頂を狭くすることでクラス内分散をより小さくする t-vMF類似度 > 手法の肝は?
: イメージ 14 犬 猫 犬 犬 猫 犬
16.
Cos 類似度 vMF 類似度 t-vMF 類似度 q-vMF 類似度 15 Cos類似度の山頂の広さと裾野の広さを可変に t-vMF類似度 > 手法の肝は? 𝜙! cos
𝜃; 𝜅 = 2 exp 𝜅 𝑐𝑜𝑠𝜃 − 𝑒𝑥𝑝 −𝜅 𝑒𝑥𝑝(𝜅) − 𝑒𝑥𝑝 −𝜅 −1 𝜙" cos 𝜃; 𝜅 = 1 + 𝑐𝑜𝑠 𝜃 1 + 𝜅 1 − 𝑐𝑜𝑠 𝜃 −1 𝜙# cos 𝜃 = cos 𝜃 デメリット 山頂(許容範囲)が広すぎて、 クラス内分散が大きくなる。 → 汎化性能が下がる。 正規分布をstudent-t分布に置換(t-SNE※7アプローチと同様)し、裾野を広げる 単位超球面上の正規分布モデル von Mises-Fisher分布※6を適用し、山頂の広さを𝜅で制御可能に デメリット 𝜅が大きくなると、指数関数のため 裾野が狭くなりすぎる。 → 勾配消失が生じて学習が停滞する。 ※6 : Mardia, Kanti V., and Peter E. Jupp. Directional statistics. Vol. 494. John Wiley & Sons, 2009. 被引用数4689 ※7 : Van der Maaten, Laurens, and Geoffrey Hinton. “Visualizing data using t-SNE.” Journal of machine learning research 9.11 (2008). 被引用数22452 𝜙$ cos 𝜃; 𝜅 = 2 [&' &'$ ( &')*+ ,) ) )*+' &'. &'$ ( ) )*+ &' &'. &'$ ( ) )*+ − 1 vMF類似度とt-vMF類似度を一般化し、裾野の広さも𝑞で制御可能に フォンミーゼス・フィッシャー
17.
Cos 類似度 vMF 類似度 t-vMF 類似度 q-vMF 類似度 16 Cos類似度の山頂の広さと裾野の広さを可変に t-vMF類似度 > 手法の肝は? 𝜙! cos
𝜃; 𝜅 = 2 exp 𝜅 𝑐𝑜𝑠𝜃 − 𝑒𝑥𝑝 −𝜅 𝑒𝑥𝑝(𝜅) − 𝑒𝑥𝑝 −𝜅 −1 𝜙" cos 𝜃; 𝜅 = 1 + 𝑐𝑜𝑠 𝜃 1 + 𝜅 1 − 𝑐𝑜𝑠 𝜃 −1 𝜙# cos 𝜃 = cos 𝜃 デメリット 山頂(許容範囲)が広すぎて、 クラス内分散が大きくなる。 → 汎化性能が下がる。 正規分布をstudent-t分布に置換(t-SNE※7アプローチと同様)し、裾野を広げる 単位超球面上の正規分布モデル von Mises-Fisher分布※6を適用し、山頂の広さを𝜅で制御可能に デメリット 𝜅が大きくなると、指数関数のため 裾野が狭くなりすぎる。 → 勾配消失が生じて学習が停滞する。 ※6 : Mardia, Kanti V., and Peter E. Jupp. Directional statistics. Vol. 494. John Wiley & Sons, 2009. 被引用数4689 ※7 : Van der Maaten, Laurens, and Geoffrey Hinton. “Visualizing data using t-SNE.” Journal of machine learning research 9.11 (2008). 被引用数22452 𝜙$ cos 𝜃; 𝜅 = 2 [&' &'$ ( &')*+ ,) ) )*+' &'. &'$ ( ) )*+ &' &'. &'$ ( ) )*+ − 1 vMF類似度とt-vMF類似度を一般化し、裾野の広さも𝑞で制御可能に フォンミーゼス・フィッシャー
18.
von Mises-Fisher分布(ベクトルの「向き」に確率をのせた単位超球面上の正規分布) 𝒑 5 𝒙;
5 𝒘, 𝜿 ≔ 𝑪𝜿 𝐞𝐱𝐩 𝜿5 𝒘𝑻5 𝒙 = 𝐶. exp 𝜅 cos 𝜃 = 𝐶. exp 𝜅 5 𝑤/ D 𝑥 − # $ D 𝑥 $ − # $ 5 𝑤 $ + 1 ∵ D 𝑥 = 5 𝑤 = 1 = 𝐶.𝑒. exp − # $ 𝜅 D 𝑥 − 5 𝑤 $ = 𝐶. 0 𝑓1 D 𝑥 − 5 𝑤 ∵ 𝑓1 𝑑; 𝜅 ≔ exp − # $ 𝜅𝑑$ vMF類似度 𝝓𝒆 𝐜𝐨𝐬 𝜽; 𝜿 ≔ 2 3! 4 56 7 8 ;. 63! $;. 3! :;. 63! $;. − 1 ∵ * 𝑥 − - 𝑤 ∈ 0,2 かつ𝑓"はその範囲で単調減少より 𝜙" ∈ −1,1 となるようにスケーリング = 𝟐 𝐞𝐱𝐩 𝜿 𝒄𝒐𝒔𝜽 6𝒆𝒙𝒑 6𝜿 𝐞𝐱𝐩 𝜿 6𝒆𝒙𝒑 6𝜿 −𝟏 ただし、𝜅 ∈ −∞, 0 ∪ 0, +∞ • 𝜅 > 0 : 𝜃 = 0 付近の類似性を敏感に測定 • 𝜅 → 0 : Cos類似度 • 𝜅 < 0 : 山頂(許容範囲)がCos類似度よりも広くなる 17 vMF類似度は𝜿 > 𝟎にすることで山頂を狭くし、クラス内分散を小さくできる。 【数学】 t-vMF類似度 > 手法の肝は? > vMF類似度の導出 ←標準正規分布𝑓 𝑥 = # $& exp − 5# $ に基づいたプロファイル関数 * 𝑥 ∶ d次元の単位ベクトル - 𝑤 ∶ 分布の中心を向く単位ベクトル 𝜅 ∶ - 𝑤への分布の集中度を制御するパラメータ 𝐶$ ∶ 正規化定数 exp(𝜅 cos 𝜃) ∝ 𝑓1 D 𝑥 − 5 𝑤 より、 Cos類似度を𝑓1 D 𝑥 − 5 𝑤 で特徴付けられる。
19.
Cos 類似度 vMF 類似度 t-vMF 類似度 q-vMF 類似度 18 Cos類似度の山頂の広さと裾野の広さを可変に t-vMF類似度 > 手法の肝は? 𝜙! cos
𝜃; 𝜅 = 2 exp 𝜅 𝑐𝑜𝑠𝜃 − 𝑒𝑥𝑝 −𝜅 𝑒𝑥𝑝(𝜅) − 𝑒𝑥𝑝 −𝜅 −1 𝜙" cos 𝜃; 𝜅 = 1 + 𝑐𝑜𝑠 𝜃 1 + 𝜅 1 − 𝑐𝑜𝑠 𝜃 −1 𝜙# cos 𝜃 = cos 𝜃 デメリット 山頂(許容範囲)が広すぎて、 クラス内分散が大きくなる。 → 汎化性能が下がる。 正規分布をstudent-t分布に置換(t-SNE※7アプローチと同様)し、裾野を広げる 単位超球面上の正規分布モデル von Mises-Fisher分布※6を適用し、山頂の広さを𝜅で制御可能に デメリット 𝜅が大きくなると、指数関数のため 裾野が狭くなりすぎる。 → 勾配消失が生じて学習が停滞する。 ※6 : Mardia, Kanti V., and Peter E. Jupp. Directional statistics. Vol. 494. John Wiley & Sons, 2009. 被引用数4689 ※7 : Van der Maaten, Laurens, and Geoffrey Hinton. “Visualizing data using t-SNE.” Journal of machine learning research 9.11 (2008). 被引用数22452 𝜙$ cos 𝜃; 𝜅 = 2 [&' &'$ ( &')*+ ,) ) )*+' &'. &'$ ( ) )*+ &' &'. &'$ ( ) )*+ − 1 vMF類似度とt-vMF類似度を一般化し、裾野の広さも𝑞で制御可能に フォンミーゼス・フィッシャー
20.
von Mises-Fisher分布(ベクトルの「向き」に確率をのせた単位超球面上の正規分布 student-t分布) 𝑝
D 𝑥; 5 𝑤, 𝜅 ≔ 𝐶. exp 𝜅5 𝑤/ D 𝑥 = 𝐶. exp 𝜅 cos 𝜃 = 𝐶.𝑒. exp − # $ 𝜅 D 𝑥 − 5 𝑤 $ = 𝐶. 0 𝑓1 D 𝑥 − 5 𝑤 ∵ 𝑓1 𝑑; 𝜅 ≔ exp − # $ 𝜅𝑑$ = 𝑪𝜿 0 𝒇𝒕 5 𝒙 − 5 𝒘 t-vMF類似度 𝝓𝒕 𝐜𝐨𝐬 𝜽; 𝜿 ≔ 2 3% 4 56 7 8 ;. 63% $;. 3% :;. 63% $;. − 1 ∵ * 𝑥 − - 𝑤 ∈ 0,2 かつ𝑓&はその範囲で単調減少より 𝜙& ∈ −1,1 となるようにスケーリング = 2 ' '() '*+,- . 6 ' '(#) #6 ' '(#) −1 ∵ cos 𝜃 = 1 − # $ D 𝑥 − 5 𝑤 $ = 𝟏(𝒄𝒐𝒔 𝜽 𝟏(𝜿 𝟏6𝒄𝒐𝒔 𝜽 −𝟏 ただし、𝜅 ∈ − # $ , +∞ ∵ * 𝑥 − - 𝑤 ∈ 0,2 かつ𝑓& > 0より 0 < 1 + / 0 𝜅 * 𝑥 − - 𝑤 0 ≤ 1 + 2𝜅 19 t-vMF類似度は𝜿を大きくしても勾配消失しにくい。 【数学】 t-vMF類似度 > 手法の肝は? > t-vMF類似度の導出 (→ cos 𝜃 = 1 − # $ D 𝑥 − 5 𝑤 $ ) 自由度1のStudent-t分布𝑓 𝑡 = # &(#(F#) に基づいた プロファイル関数 𝑓F 𝑑; 𝜅 ≔ # #( ' # .H# に置き換える。 → 山頂の狭さは保ちつつ裾野が広くなる。
21.
Cos 類似度 vMF 類似度 t-vMF 類似度 q-vMF 類似度 20 Cos類似度の山頂の広さと裾野の広さを可変に t-vMF類似度 > 手法の肝は? 𝜙! cos
𝜃; 𝜅 = 2 exp 𝜅 𝑐𝑜𝑠𝜃 − 𝑒𝑥𝑝 −𝜅 𝑒𝑥𝑝(𝜅) − 𝑒𝑥𝑝 −𝜅 −1 𝜙" cos 𝜃; 𝜅 = 1 + 𝑐𝑜𝑠 𝜃 1 + 𝜅 1 − 𝑐𝑜𝑠 𝜃 −1 𝜙# cos 𝜃 = cos 𝜃 デメリット 山頂(許容範囲)が広すぎて、 クラス内分散が大きくなる。 → 汎化性能が下がる。 正規分布をstudent-t分布に置換(t-SNE※7アプローチと同様)し、裾野を広げる 単位超球面上の正規分布モデル von Mises-Fisher分布※6を適用し、山頂の広さを𝜅で制御可能に デメリット 𝜅が大きくなると、指数関数のため 裾野が狭くなりすぎる。 → 勾配消失が生じて学習が停滞する。 ※6 : Mardia, Kanti V., and Peter E. Jupp. Directional statistics. Vol. 494. John Wiley & Sons, 2009. 被引用数4689 ※7 : Van der Maaten, Laurens, and Geoffrey Hinton. “Visualizing data using t-SNE.” Journal of machine learning research 9.11 (2008). 被引用数22452 𝜙$ cos 𝜃; 𝜅 = 2 [&' &'$ ( &')*+ ,) ) )*+' &'. &'$ ( ) )*+ &' &'. &'$ ( ) )*+ − 1 vMF類似度とt-vMF類似度を一般化し、裾野の広さも𝑞で制御可能に フォンミーゼス・フィッシャー
22.
von Mises-Fisher分布 𝑝 D 𝑥;
5 𝑤, 𝜅 ≔ 𝐶. exp 𝜅5 𝑤/ D 𝑥 = 𝐶. exp 𝜅 cos 𝜃 = 𝐶.𝑒. exp − # $ 𝜅 D 𝑥 − 5 𝑤 $ = 𝐶. 0 𝑓1 D 𝑥 − 5 𝑤 ∵ 𝑓1 𝑑; 𝜅 ≔ exp − # $ 𝜅𝑑$ = 𝑪𝜿 0 𝒇𝒒 5 𝒙 − 5 𝒘 q-vMF類似度 𝝓𝒒 𝐜𝐨𝐬 𝜽; 𝜿 ≔ 2 31 4 56 7 8 ;. 631 $;. 31 :;. 631 $;. − 1 ∵ * 𝑥 − - 𝑤 ∈ 0,2 かつ𝑓2はその範囲で単調減少より 𝜙2 ∈ −1,1 となるようにスケーリング = 𝟐 [𝟏= 𝟏=𝒒 𝜿 𝟏=𝒄𝒐𝒔 𝜽) 𝟏 𝟏"𝒒= 𝟏=𝟐 𝟏=𝒒 𝜿 𝟏 𝟏"𝒒 𝟏= 𝟏=𝟐 𝟏=𝒒 𝜿 𝟏 𝟏"𝒒 − 𝟏 ただし、𝜅 ∈ − # $ J6# , +∞ 21 q-vMF類似度は 𝜿で山頂の広さを、𝒒で裾野の広さを制御可能 【数学】 t-vMF類似度 > 手法の肝は? > q-vMF類似度の導出 標準正規分布とstudent-t分布の確率密度関数を 一般化したq-指数関数※8 𝑓J 𝑑; 𝜅 ≔ 1 − 1 − 𝑞 # $ 𝜅𝑑$ ' '*1 に置き換える。 • 𝑞 → 1 : 指数関数 𝑓J→# ≡ 𝑓1 • 𝑞 = 2 : student-t関数 𝑓JL$ ≡ 𝑓F • 𝑞 → 1 : vMF類似度 𝜙J→# ≡ 𝜙1 • 𝑞 = 2 : t-vMF類似度 𝜙JL$ ≡ 𝜙F → 𝑞 を大きくすると裾野が広くなる。 ※8 : Constantino Tsallis. What are the numbers that experiments provide? Quimica Nova, 17(468), 1994
23.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 22 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
24.
たった1行加えるだけ t-vMF類似度 > 先行研究と比べてどこがすごい? 23 ※ 𝜙" cos
𝜃; 𝜅 = 1 + 𝑐𝑜𝑠 𝜃 1 + 𝜅 1 − 𝑐𝑜𝑠 𝜃 −1 𝜙# cos 𝜃 = cos 𝜃 Cos類 似 度 t-vMF類似度 SoftmaxCEloss
25.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 24 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
26.
25 t-vMF類似度はvMFやq-vMFと比べて高い分類精度を発揮した。 t-vMF類似度 > どうやって有効だと検証した? >
Ablation Study ImageNet-LTデータセット(不均衡データセット)にResNet10を学習させた。 (1) κを適度に大きくすることで Cos類似度より性能向上 (2) vMF類似度は κ ≧ 16では性能が低下 (3) q-vMF類似度は t-vMF類似度に比べて劣る →t-vMF類似度は大きなκでも 安定して性能を発揮 山頂が狭い エラー率が低い(精度が高い)
27.
26 t-vMF類似度は劣悪データセットに対して優れた分類精度を発揮した。 t-vMF類似度 > どうやって有効だと検証した? >
既存手法との比較 深層距離学習手法 正則化損失の追加 その他手法 データ拡張と 組み合わせることで より高い精度が 期待できる。 不均衡データセット 小規模データセット ラベルノイズ入りデータセット ラベルを ランダムに 間違ったものに 切り替えた。 ↑ 適度な𝜿 > 𝟎 で高い性能を発揮 c エラー率が低い (精度が高い)
28.
27 t-vMF類似度で学習した特徴は、クラス内分散が小さい。 t-vMF類似度 > どうやって有効だと検証した? >
特徴量評価 クラス𝑐ごとの平均角度𝜃C ImageNet-LTデータセット(不均衡データセット)に ResNet10を学習させた。 クラス内分散 クラスごとのサンプル数 c クラスごとのクラス内分散
29.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 28 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
30.
29 健全なデータセットには𝜿 < 𝟎の方が精度が高い t-vMF類似度 >
議論や考察はある? > 健全データセット ImageNetデータセットで学習 𝜅を小さくすることで、多数のサンプル間のクラス間識別力を高めることができる。
31.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 30 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
32.
• 表題 :
Tune It or Don't Use It: Benchmarking Data-Efficient Image Classification • 著者 : Brigato, Lorenzo, et al. • 採択学会 : ICCV2021 • 被引用数 : 1 • 発見理由 : t-vMF類似度の論文を引用していたから 31 小規模な画像分類ベンチマークを設計し、既存の最先端モデルを再評価 t-vMF類似度 > 次に読むべき論文は?(1/2)
33.
32 Baselineを凌駕しているのはHarmonic Networksのみ!? t-vMF類似度 > 次に読むべき論文は?(1/2)
> 小規模データセットでの分類精度評価
34.
• 表題 :
Harmonic Networks for Image Classification • 著者 : M Ulicny, et al. • 採択学会 : BMVC2019 • 被引用数 : 10 • 表題 : Harmonic Networks with Limited Training Samples • 著者 : M Ulicny, et al. • 採択学会 : EUSIPCO2019 • 被引用数 : 7 33 画像圧縮に広く用いられる離散コサイン変換フィルタを利用するっぽい t-vMF類似度 > 次に読むべき論文は?(2/2) : Harmonic Networks
35.
どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論や考察はある? 次に読むべき論文は? Cos類似度の山頂の広さと裾野の広さを可変に → 勾配消失を防ぎながらクラス内分散をより小さくする (von Mises-Fisher分布
+ t-SNEアプローチ) フォンミーゼス・フィッシャー 健全データセットでは広い山頂が有効 → クラス内分散を小さくするよりも クラス間の識別性を高める方が重要 1. Benchmarking Data-Efficient Image Classification 2. Harmonic Networks Kobayashi, Takumi. “t-vMF Similarity for Regularizing Intra-Class Feature Distribution.” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021. 被引用数1 Cos類似度の山容を制御することで、劣悪データに対する分類問題で高性能 t-vMF類似度 Cos類似度を超えた新しい類似度 → 劣悪データセットに対しても 高い汎化性能を示す 不均衡データ 小規模 ノイジー 34 • 既存vMFモデル : 新たにLossを定式化 • 本論文 : SoftmaxCElossの過程でvMFを考慮 → 類似度を変更するだけで実装が簡単
36.
Cos類似度 t-vMF類似度 犬 猫 犬 犬 猫 犬 ここさえ理解してもらえたら🤗 最後に 35 所感 ゴリゴリ数学な論文でいつもと毛色が違った。けど「コンパクト」が数学用語と紛らわしかった。 MagFaceと組合わせたらどうなるか気になる。どちらも実装簡単だし研究でやってみよう。
Download now