More Related Content
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 PDF
PPTX
PDF
PDF
PDF
PDF
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca... PDF
What's hot
PDF
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3 PPTX
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial) PPTX
[DL輪読会]When Does Label Smoothing Help? PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ PPTX
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra... PPTX
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil... PPTX
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー... PPTX
PDF
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜 PDF
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling PDF
PPTX
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築 PDF
PPTX
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri... PPTX
PDF
三次元点群を取り扱うニューラルネットワークのサーベイ PDF
論文紹介「A Perspective View and Survey of Meta-Learning」 PDF
PPTX
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces Similar to Group normalization
PDF
Layer Normalization@NIPS+読み会・関西 PDF
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent PDF
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De... PDF
SSII2019TS: Shall We GANs? ~GANの基礎から最近の研究まで~ PDF
SSII2019TS: Shall We GANs? ~GANの基礎から最近の研究まで~ PPTX
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-... PDF
PDF
Batch normalization effectiveness_20190206 PDF
PPTX
Bayesian Uncertainty Estimation for Batch Normalized Deep Networks PPTX
Learning sparse neural networks through L0 regularization PDF
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで PPTX
Large scale gan training for high fidelity natural PPTX
PDF
normalized online learning PPTX
PDF
ICML2019@Long Beach 参加速報(5~6日目 Workshop) More from Ryutaro Yamauchi
PPTX
[DeepLearning論文読み会] Dataset Distillation PPTX
PPTX
PPTX
[論文解説]Unsupervised monocular depth estimation with Left-Right Consistency PPTX
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent PPTX
Hybrid computing using a neural network with dynamic Group normalization
- 1.
- 2.
書誌情報
• Yuxin Wu,Kaiming He
• Facebook AI Research(FAIR)の人々
• Kaiming氏はいつもシンプルで力強いアイディアを出してきて凄い
• ResNetとかMask R-CNNとか
• https://arxiv.org/abs/1803.08494
- 3.
Batch Normalizationの問題点
• BatchNormalization(BN)はバッチサイズが小さい場合に著し
く精度が下がる
• バッチの統計量を正しく推定できなくなるため
• 高精細な画像を用いたDetectionやSegmentationの学習では、メモリ
の制約からバッチサイズを確保できないことが多い
• 2とか4とか
• 評価時には事前に計算された統計量を用いるが、データの分布
が変わると意味をなさない
• 転移学習する場合に困る
- 4.
BNの問題点への対処
• 凄い計算機を使う
• 本質的ではない
•Batch Renormalization
• バッチではなく学習セット全体の統計量を推定する
• Weight Normalization
• filter weightの方を正規化
• Batch次元と独立なNormalization
• Layer Normalization
• Instance Normalization
• ↑この2つはRNN/LSTMやGANでは効果的だが、画像認識では微妙
• Group Normalization
• 今回提案するのはこれ
- 5.
- 6.
- 7.
- 8.
- 9.
- 10.
- 11.
- 12.
実験1 Image Classificationin ImageNet
• ResNet-50でImageNetを学習
• 8 GPUsで計算
• バッチ統計量はGPUごとに算出
• 基本的にG=32
• 実験
1. バッチサイズ32でBN, GN, LN, INの精度を比較
2. バッチサイズを変えながらBNとGNの精度を比較
3. Batch Renormalizationとの比較
4. Gを変える
5. ResNet-101の場合
6. VGG16における結果と分析
- 13.
- 14.
- 15.
実験1-3, 4
• 1-3.Batch Renormとの比較(バッチサイズ:4)
• GN(24.2%)>BR(26.3%)>GN(27.3%)
• 1-4. Gを変える
• G=32が最もよい
• 1Groupごとのチャネル数を固定した
場合、16チャネルが最も良い
- 16.
- 17.
- 18.