【CVPR 2019】Do Better ImageNet Models Transfer Better?
1. Do Better ImageNet Models Transfer Better?
(CVPR 2019 Oral)
Simon Kornblith, Jonathon Shlens, Quoc V. Le
(Google Brain)
1
http://xpaperchallenge.org/cv/
資料作成:⽚岡 裕雄
3. 本研究に⾄るまでの経緯(1/2)
3
• 画像識別における転移学習は有効
– 深層学習における転移学習の例(下図)
– 特にImageNet等の⼤規模DBの事前学習モデルは転移学習
の精度に対する期待が⾼い
Conv
Conv
Pool
Conv
Conv
Conv
Pool
Conv
Conv
Conv
Pool
Conv
Conv
Pool
Conv
Conv
Pool
Conv
g (i; w )
DB
(Pre-train)
FC
FC
Output1
画像 i を⼊⼒して出⼒を得る
関数 g,wによりparametrize
Pre-trained Model
DB
(Fine-tuning)
Output2Pre-trained Model
1) Pre-train; 通常は⼤規模データにより学習
2) Fine-tuning; 通常はタスクに応じてパラメータを適応
転移学習 (Transfer Learning)?
1)の事前学習モデルを2)他のタスクに向けて
追加(転移)学習させることから
図は下記を参照
https://www.slideshare.net/cvpaperchallenge/eccv-2018exploring-the-limits-of-weakly-supervised-pretraining
4. 本研究に⾄るまでの経緯(2/2)
4
• 深層学習時代の転移学習動向
– 活性化特徴として畳み込み特徴を転⽤(DeCAF; 左図)
– 事前学習モデルの転移学習について調査(右図)
深層学習のアーキテクチャと転移学習の関係性は重要
と位置付けて本研究を実施
[33] Mi-Young Huh, Pulkit Agrawal, and Alexei
A. Efros. What makes ImageNet good for
transfer learning? CoRR, abs/1608.08614,
2016.
[⽂献にはなし] Jeff Donahue, et al. DeCAF: A Deep Convolutional
Activation Featurefor Generic Visual Recognition, in ICML, 2014.