4. HAI 2021
: Data
• test directory
: test dataset에 해당하는 이미지가 담긴 directory
• train directory
: training dataset에 해당하는 이미지가 담긴 directory
• sample_submission.csv
: kaggle에 제출해야 할 파일의 예시
• train_labels.csv
: training dataset의 각 이미지별 label이 표기된 파일
5. HAI 2021
: Metric
Area Under Receiver Operating Characteristic Curve
https://scikit-learn.org/stable/modules/generated/sklearn.metrics.roc_auc_score.html
6. HAI 2021
: Residual Neural Network
• 기존 방식에선 layer를 매우 많이 쌓으면 성능이 떨어지는 현상이 발생함.
→ Degradation Problem
• 위 문제를 해결하기 위해 residual learning 기법을 도입.
Source: He, Zhang, Ren, Sun 2015
10. HAI 2021
: Squeeze and Excitation Network
• Network 구조에 관계 없이 적용할 수 있음.
Source: Hu, Shen, Albanie, Sun, Wu 2017
11. HAI 2021
: Squeeze and Excitation Network
• Paper
https://arxiv.org/abs/1709.01507
• PyTorch Implementation
https://github.com/moskomule/senet.pytorch
12. HAI 2021
: Convolutional Block Attention Module
• Self-attention을 이용해 image classification / detection의 성능을 향상함.
Source: Woo, Park, Lee, Kweon 2018
13. HAI 2021
: Convolutional Block Attention Module
• Self-attention을 이용해 image classification / detection의 성능을 향상함.
Source: Woo, Park, Lee, Kweon 2018
14. HAI 2021
: Convolutional Block Attention Module
• Paper
https://arxiv.org/abs/1807.06521
• Paper Review (Korean)
https://blog.lunit.io/2018/08/30/bam-and-cbam-self-attention-modules-for-cnn/
• PyTorch Implementation
https://github.com/Jongchan/attention-module
15. HAI 2021
: CNN Tricks
→ https://arxiv.org/abs/1812.01187
• CNN을 training하는 여러 방법(흑마법)을 소개하는 논문.
• 3개의 파트로 구성 돼있음.
• Efficient Training : training을 효율적으로 하기 위한 방법론 소개.
• Model Tweaks : 모델의 구조를 수정하여 성능을 높이기 위한 방법론 소개.
• Training Refinement : 정확도를 높이기 위한 방법론 소개.
16. HAI 2021
: CNN Tricks
• Linear Scaling Learning Rate
→ batch size를 키우면 learning rate를 Τ
𝑏
256배로 키움.
• Learning Rate Warmup
→ 초기 learning rate를 작은 값부터 선형적으로 증가시킴.
• Zero γ
→ ResNet같은 구조에선 Batch Normalization의 gamma를 0으로 초기화.
• No Bias Decay
→ Weight decay를 bias를 제외하고 weight에 대해서만 적용.
18. HAI 2021
: Knowledge Distillation
• 미리 잘 학습된 Teacher Network의 지식을 Student Network에게 전달하는 기법.
Data
Teacher
Student
prediction
prediction
Knowledge
Distillation
19. HAI 2021
: Transfer Learning
• 이미 학습된 (pre-trained) network를 원하는 task에 맞춰 다시 학습하는 기법.
• 비교적 짧은 시간에 높은 정확도를 달성할 수 있음.
• 데이터가 적은 환경에서도 효율적임.