データ拡張 (Data Augmentation) を学習中に使い分けるRefined Data Augmentationについて解説しました。
He, Zhuoxun, et al. "Data augmentation revisited: Rethinking the distribution gap between clean and augmented data." arXiv preprint arXiv:1909.09148 (2019).
データ拡張 (Data Augmentation) を学習中に使い分けるRefined Data Augmentationについて解説しました。
He, Zhuoxun, et al. "Data augmentation revisited: Rethinking the distribution gap between clean and augmented data." arXiv preprint arXiv:1909.09148 (2019).
技術動向の調査として、ICML Workshop Uncertainty & Robustness in Deep Learningの中で、面白そうなタイトルを中心に読んで各論文を4スライドでまとめました。
最新版:https://speakerdeck.com/masatoto/icml-2021-workshop-shen-ceng-xue-xi-falsebu-que-shi-xing-nituite-e0debbd2-62a7-4922-a809-cb07c5da2d08(文章を修正しました。)
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...Kazuki Adachi
Selvaraju, Ramprasaath R., et al. "Grad-cam: Visual explanations from deep networks via gradient-based localization." The IEEE International Conference on Computer Vision (ICCV), 2017, pp. 618-626
技術動向の調査として、ICML Workshop Uncertainty & Robustness in Deep Learningの中で、面白そうなタイトルを中心に読んで各論文を4スライドでまとめました。
最新版:https://speakerdeck.com/masatoto/icml-2021-workshop-shen-ceng-xue-xi-falsebu-que-shi-xing-nituite-e0debbd2-62a7-4922-a809-cb07c5da2d08(文章を修正しました。)
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...Kazuki Adachi
Selvaraju, Ramprasaath R., et al. "Grad-cam: Visual explanations from deep networks via gradient-based localization." The IEEE International Conference on Computer Vision (ICCV), 2017, pp. 618-626
5. 2 RELATED WORK 5
data shift 下の堅牢性
訓練時の特定の加工を学習してしまう
例:あるブラーを覚えても未知のブラーに対応不可
data shift 下のキャリブレーション
calibrated → 分類器が適切に正確性を予測できている
例:信頼度70%の画像のうち、70%が正解
data shift によってキャリブレーションは低下
複数のクラス分類予想を単純にアンサンブルすると改善
6. 2 RELATED WORK 6
水増し(augmentation)
水増しは大いに汎化に効果がある
切り取り・平行移動がよく使われる
manifold intrusion → ミックスした画像と元画像の特徴が矛盾し
学習不足に陥ること
15. 3 AUGMIX 15
実際は元画像に2回AugMix処理をして画像を2つ得る
→損失関数で評価する
AugMix also uses a consistency loss between
augmentations that encourages invariance to
semantic perturbations.
ランダム性の中でも一貫性を保つ?
元画像と乖離しないようにする?
正直よくわからない・・・
https://hotcocoastudy.hatenablog.jp/entry/2019/12/07/143506