Submit Search
Upload
190602 benchmarking neural network robustness to common corruptions and perturbations
•
2 likes
•
3,533 views
亮
亮宏 藤井
Follow
ICLR 2019 読み会 in 京都で登壇する時の資料
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 27
Download now
Download to read offline
Recommended
190602 what does_cnn_see
190602 what does_cnn_see
亮宏 藤井
勉強会用スライド
勉強会用スライド
harmonylab
Playing Atari with Six Neurons
Playing Atari with Six Neurons
harmonylab
How Much Position Information Do Convolutional Neural Networks Encode?
How Much Position Information Do Convolutional Neural Networks Encode?
Kazuyuki Miyazawa
A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
harmonylab
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
harmonylab
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Takayoshi Yamashita
Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
harmonylab
Recommended
190602 what does_cnn_see
190602 what does_cnn_see
亮宏 藤井
勉強会用スライド
勉強会用スライド
harmonylab
Playing Atari with Six Neurons
Playing Atari with Six Neurons
harmonylab
How Much Position Information Do Convolutional Neural Networks Encode?
How Much Position Information Do Convolutional Neural Networks Encode?
Kazuyuki Miyazawa
A simple neural network mnodule for relation reasoning
A simple neural network mnodule for relation reasoning
harmonylab
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
harmonylab
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Takayoshi Yamashita
Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
harmonylab
機械系のラボがAI(DL)を研究する意義【東京工業大学・鈴木良郎】
機械系のラボがAI(DL)を研究する意義【東京工業大学・鈴木良郎】
ssuser1bf283
20191008 applications of deep learning in mechanical engineering
20191008 applications of deep learning in mechanical engineering
ssuser1bf283
2020 08 05_dl_DETR
2020 08 05_dl_DETR
harmonylab
A PID Controller Approach for Stochastic Optimization of Deep Networks
A PID Controller Approach for Stochastic Optimization of Deep Networks
harmonylab
CNNチュートリアル
CNNチュートリアル
Ikuro Sato
20160601画像電子学会
20160601画像電子学会
nlab_utokyo
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
20141220 tokyowebmining state_spacemodel
20141220 tokyowebmining state_spacemodel
Kenny ISHIMURA
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
Seiya Tokui
ディープラーニングの機械工学分野への適用
ディープラーニングの機械工学分野への適用
ssuser1bf283
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
harmonylab
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
Deep Learning JP
Capsule Graph Neural Network
Capsule Graph Neural Network
harmonylab
[DLゼミ] Learning agile and dynamic motor skills for legged robots
[DLゼミ] Learning agile and dynamic motor skills for legged robots
harmonylab
画像処理分野における研究事例紹介
画像処理分野における研究事例紹介
nlab_utokyo
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?
harmonylab
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジ
Yusuke Uchida
Trainable Calibration Measures for Neural Networks from Kernel Mean Embeddings
Trainable Calibration Measures for Neural Networks from Kernel Mean Embeddings
harmonylab
ILSVRC2015 手法のメモ
ILSVRC2015 手法のメモ
Hirokatsu Kataoka
探求の道 Lead Clearly
探求の道 Lead Clearly
Yutaka KATAYAMA
菊地の研究ポートフォリオ2019版 v1.01
菊地の研究ポートフォリオ2019版 v1.01
Shunsuke Kikuchi
More Related Content
What's hot
機械系のラボがAI(DL)を研究する意義【東京工業大学・鈴木良郎】
機械系のラボがAI(DL)を研究する意義【東京工業大学・鈴木良郎】
ssuser1bf283
20191008 applications of deep learning in mechanical engineering
20191008 applications of deep learning in mechanical engineering
ssuser1bf283
2020 08 05_dl_DETR
2020 08 05_dl_DETR
harmonylab
A PID Controller Approach for Stochastic Optimization of Deep Networks
A PID Controller Approach for Stochastic Optimization of Deep Networks
harmonylab
CNNチュートリアル
CNNチュートリアル
Ikuro Sato
20160601画像電子学会
20160601画像電子学会
nlab_utokyo
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
20141220 tokyowebmining state_spacemodel
20141220 tokyowebmining state_spacemodel
Kenny ISHIMURA
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
Seiya Tokui
ディープラーニングの機械工学分野への適用
ディープラーニングの機械工学分野への適用
ssuser1bf283
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
harmonylab
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
Deep Learning JP
Capsule Graph Neural Network
Capsule Graph Neural Network
harmonylab
[DLゼミ] Learning agile and dynamic motor skills for legged robots
[DLゼミ] Learning agile and dynamic motor skills for legged robots
harmonylab
画像処理分野における研究事例紹介
画像処理分野における研究事例紹介
nlab_utokyo
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?
harmonylab
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジ
Yusuke Uchida
Trainable Calibration Measures for Neural Networks from Kernel Mean Embeddings
Trainable Calibration Measures for Neural Networks from Kernel Mean Embeddings
harmonylab
ILSVRC2015 手法のメモ
ILSVRC2015 手法のメモ
Hirokatsu Kataoka
What's hot
(20)
機械系のラボがAI(DL)を研究する意義【東京工業大学・鈴木良郎】
機械系のラボがAI(DL)を研究する意義【東京工業大学・鈴木良郎】
20191008 applications of deep learning in mechanical engineering
20191008 applications of deep learning in mechanical engineering
2020 08 05_dl_DETR
2020 08 05_dl_DETR
A PID Controller Approach for Stochastic Optimization of Deep Networks
A PID Controller Approach for Stochastic Optimization of Deep Networks
CNNチュートリアル
CNNチュートリアル
20160601画像電子学会
20160601画像電子学会
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
20141220 tokyowebmining state_spacemodel
20141220 tokyowebmining state_spacemodel
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
ディープラーニングの機械工学分野への適用
ディープラーニングの機械工学分野への適用
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
[DLHacks 実装] DeepPose: Human Pose Estimation via Deep Neural Networks
Capsule Graph Neural Network
Capsule Graph Neural Network
[DLゼミ] Learning agile and dynamic motor skills for legged robots
[DLゼミ] Learning agile and dynamic motor skills for legged robots
画像処理分野における研究事例紹介
画像処理分野における研究事例紹介
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジ
Trainable Calibration Measures for Neural Networks from Kernel Mean Embeddings
Trainable Calibration Measures for Neural Networks from Kernel Mean Embeddings
ILSVRC2015 手法のメモ
ILSVRC2015 手法のメモ
Similar to 190602 benchmarking neural network robustness to common corruptions and perturbations
探求の道 Lead Clearly
探求の道 Lead Clearly
Yutaka KATAYAMA
菊地の研究ポートフォリオ2019版 v1.01
菊地の研究ポートフォリオ2019版 v1.01
Shunsuke Kikuchi
tut_pfi_2012
tut_pfi_2012
Preferred Networks
Data Visualization Japan Meetup 2018: 長く変化に対応する
Data Visualization Japan Meetup 2018: 長く変化に対応する
Keiichiro Ono
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査
tmtm otm
[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーション
Deep Learning JP
Cytoscape Ecosystem Presentation at DBCLS Kashiwa
Cytoscape Ecosystem Presentation at DBCLS Kashiwa
Keiichiro Ono
Women Also Snowboard: Overcoming Bias in Captioning Models(関東CV勉強会 ECCV 2018 ...
Women Also Snowboard: Overcoming Bias in Captioning Models(関東CV勉強会 ECCV 2018 ...
Yoshitaka Ushiku
Rethinking and Beyond ImageNet
Rethinking and Beyond ImageNet
cvpaper. challenge
Information diversity in the advanced information society
Information diversity in the advanced information society
ShoheiUsui
Devil is in the Edges: Learning Semantic Boundaries from Noisy Annotations
Devil is in the Edges: Learning Semantic Boundaries from Noisy Annotations
Kazuyuki Miyazawa
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Takumi Ohkuma
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Deep Learning JP
世界初elastic認定アナリストが送る~誰でもできるデータ分析~
世界初elastic認定アナリストが送る~誰でもできるデータ分析~
aslead
テストとは
テストとは
Yukimitsu Izawa
rcast_20140411
rcast_20140411
Preferred Networks
Introduction of the_paper
Introduction of the_paper
NaokiIto8
セキュリティ管理 入門セミナ
セキュリティ管理 入門セミナ
Masaaki Nabeshima
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
Eli Kaminuma
リスク可視化の基本的方法
リスク可視化の基本的方法
Takayuki Itoh
Similar to 190602 benchmarking neural network robustness to common corruptions and perturbations
(20)
探求の道 Lead Clearly
探求の道 Lead Clearly
菊地の研究ポートフォリオ2019版 v1.01
菊地の研究ポートフォリオ2019版 v1.01
tut_pfi_2012
tut_pfi_2012
Data Visualization Japan Meetup 2018: 長く変化に対応する
Data Visualization Japan Meetup 2018: 長く変化に対応する
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査
[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーション
Cytoscape Ecosystem Presentation at DBCLS Kashiwa
Cytoscape Ecosystem Presentation at DBCLS Kashiwa
Women Also Snowboard: Overcoming Bias in Captioning Models(関東CV勉強会 ECCV 2018 ...
Women Also Snowboard: Overcoming Bias in Captioning Models(関東CV勉強会 ECCV 2018 ...
Rethinking and Beyond ImageNet
Rethinking and Beyond ImageNet
Information diversity in the advanced information society
Information diversity in the advanced information society
Devil is in the Edges: Learning Semantic Boundaries from Noisy Annotations
Devil is in the Edges: Learning Semantic Boundaries from Noisy Annotations
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
世界初elastic認定アナリストが送る~誰でもできるデータ分析~
世界初elastic認定アナリストが送る~誰でもできるデータ分析~
テストとは
テストとは
rcast_20140411
rcast_20140411
Introduction of the_paper
Introduction of the_paper
セキュリティ管理 入門セミナ
セキュリティ管理 入門セミナ
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
リスク可視化の基本的方法
リスク可視化の基本的方法
More from 亮宏 藤井
201010 evolving losses_for_unsupervised_video_representation_learning
201010 evolving losses_for_unsupervised_video_representation_learning
亮宏 藤井
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
亮宏 藤井
2020 0906 acl_2020_reading_shared
2020 0906 acl_2020_reading_shared
亮宏 藤井
200704 revisiting knowledge distillation via label smoothing regularization
200704 revisiting knowledge distillation via label smoothing regularization
亮宏 藤井
MIXUPは最終層でやった方がいいんじゃないか説
MIXUPは最終層でやった方がいいんじゃないか説
亮宏 藤井
190410 sc fegan-face_editing_generative_adversarial_network_with_users_sketch...
190410 sc fegan-face_editing_generative_adversarial_network_with_users_sketch...
亮宏 藤井
190112 kdgan knowledge distillation with generative adversarial networks
190112 kdgan knowledge distillation with generative adversarial networks
亮宏 藤井
Kdgan knowledge distillation with generative adversarial networks
Kdgan knowledge distillation with generative adversarial networks
亮宏 藤井
More from 亮宏 藤井
(8)
201010 evolving losses_for_unsupervised_video_representation_learning
201010 evolving losses_for_unsupervised_video_representation_learning
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
2020 0906 acl_2020_reading_shared
2020 0906 acl_2020_reading_shared
200704 revisiting knowledge distillation via label smoothing regularization
200704 revisiting knowledge distillation via label smoothing regularization
MIXUPは最終層でやった方がいいんじゃないか説
MIXUPは最終層でやった方がいいんじゃないか説
190410 sc fegan-face_editing_generative_adversarial_network_with_users_sketch...
190410 sc fegan-face_editing_generative_adversarial_network_with_users_sketch...
190112 kdgan knowledge distillation with generative adversarial networks
190112 kdgan knowledge distillation with generative adversarial networks
Kdgan knowledge distillation with generative adversarial networks
Kdgan knowledge distillation with generative adversarial networks
190602 benchmarking neural network robustness to common corruptions and perturbations
1.
Benchmarking Neural Network Robustness to Common Corruptions
and Perturbations 発表者︓ 藤井亮宏@ExaWizards ICLR 2019 読み会 in 京都 Dan Hendrycks, Thomas Dietterich
2.
自己紹介 • 名前︓ Ø 藤井
亮宏(アキヒロ) • 所属︓ Ø 株式会社 エクサウィザーズ@京都オフィス • 仕事内容 Ø データ解析 Ø Deep learningとか使って⾊々(画像、時系列、医療 etc…) @akihiro_akichan 論⽂の⼀⾔解説とかしてます。
3.
3行でまとめると • 画像の汚染と摂動に対するネットワークの頑健性を調査 • 上記の頑健性を図るための指標とデータセットを提供 •
どのような手法が頑健性に効くのかを調査
4.
研究背景とか
5.
画像分類の精度は年々向上している! http://image-net.org/challenges/talks_2017/ILSVRC2017_overview.pdf
6.
画像分類の精度は年々向上している! AlexNet VGG SENetResNet BirdFoxWhaleIguana
7.
一方、学習データに存在しない汚染・摂動に対する頑健性 は不明 AlexNet VGG SENetResNet OriginalMotionBlurSnowShotNoise ? ? ? ? ? ? ? ? ? ? ? ?
8.
どれだけ頑健性があるかは重要! 学習データと実運用時のデータが異なることはたまにある。 理想像 現実は⾮情である 使えるデータは⽇ 本のだけ。でも実 運⽤時は⽶国・中 国を含むよ ⽇本・⽶国・中 国での運⽤を想 定。この3ヶ国 のデータを使っ てね いいよOK︕ 弊社顧客 弊社 顧客 実運⽤時のノイズを学習時 にモデルに取り込める 実運⽤時のノイズを学習時 にモデルに取り込めない
9.
どれだけ頑健性があるかは重要! 「とりあえずResNet」はノイズの乗ったテストデータで通用するのか? 学習時と実運⽤時のノ イズが同じ場合 とりあえず「ResNet」 で様⼦⾒ようか 弊社 学習時と実運⽤時のノ イズが違う場合 最初はResNetでいい の︖VGGの⽅が頑健性 ⾼かったりする︖ ?
10.
頑健性を図る データセットと評価指標
11.
ネットワークの頑健性の測り方 この論文では、画像に汚染と摂動をかけた2つのデータセットを 使って比較する。 汚染に対するデータセット: ImageNet-C 摂動に対するデータセット: ImageNet-P ※学習は通常のImageNetで⾏い、評価を汚染・摂動がかかったデータ セットで⾏う
12.
アルゴリズムを使って自動生成された15種の汚染 x 5段階のレベル で構成されたデータセット 15種の汚染 5段階のレベル 汚染に対するデータセット:
ImageNet-Cの内容
13.
汚染に対するデータセット: ImageNet-Cの評価指標 CEとRelative CEの2つの評価指標でネットワークの頑健性を測る CE(Corruption
Errors) Relative CE(Corruption Errors) • 評価対象ネットワークのError rateを AlexNetのError Rateで割ったもの 汚染に対してAlexNetよりどれだ け強くなっているか 綺麗なデータセットとのスコアの差 分が、どれだけAlexNetより良化し ているか s:汚染のレベル c:汚染の種類 s:汚染のレベル c:汚染の種類 • 汚染されていないデータと綺麗なデー タの差分を評価
14.
摂動に対するデータセット: ImageNet-Pの内容 10種の摂動を30段階以上のレベルで変化させたデータセット 10種の摂動 30段階以上のレベル
15.
摂動に対するデータセット: ImageNet-Pの評価指標 FRとT5Dの2つの評価指標でネットワークの頑健性を測る FR(Flip Rate)
T5D(Top-5 Distance) • FPは全てのデータで予測ラベルが変 わっていれば1を返す。 • 完全に予測ラベルが変わらない(頑健 性が最⾼)ならば0を返す 摂動をかけて予測ラベルが変わ る確率 綺麗なデータセットとのスコアの差 分が、AlexNetより良化しているか 摂動なしの画像 • 綺麗なデータセットでTop5だったラベ ルの⼊れ替わり度を数値化したもの 摂動ありの画像
16.
ネットワークの頑健性 評価結果
17.
画像汚染に対する結果 • 「綺麗なデータセットでのス コアが⾼さ」と「汚染に対す る耐性」は正の相関関係にあ る。(mCEより) • しかし、綺麗なデータのスコ アと⽐べたときの悪化率は負 の相関関係になっている。 (Relatvie
mCEより) ※値が低いほど良い ※100%以上の値=AlexNetより悪化 mCE ︓汚染された画像への強さ Relative mCE︓綺麗なデータのス コアからの悪化率
18.
画像の摂動に対する結果 綺麗なデータセットのスコアが高いほど、摂動に対する頑健性は高い ※値が低いほど良い mT5D︓予測top5カテゴ リの乱れ
19.
頑健性に関する知見
20.
頑健性向上に効果があった手法1 ヒストグラム平坦化 • 輝度が集中している部分をならすことによって画像のコント ラストを調整する⼿法 • ヒストグラム平坦化前処理をしたImageNet-CにResNet-50 を適⽤するとmCEが76.7%→74.5%に改善した 76.7% →74.5% ヒストグラム平坦化の概念図
改善効果
21.
頑健性向上に効果があった手法2 Multi Scale Networks •
様々な⼤きさにおける情報を使うネットワーク • Multi Grid NetworksとMSDNetはResNet-50に⽐べて⼤きく 改善した。 Multi Grid Networks 改善効果 https://arxiv.org/pdf/1611.07661.pdf https://arxiv.org/pdf/1703.09844.pdf MSDNet ※ただし摂動に対する改善効果は薄い
22.
頑健性向上に効果があった手法3 Feature Aggregation and
Larger Networks • 特徴量を集約するネットワーク、⼤規模なネットワークが良い • 特徴量を集約するResNeXt・DenseNetは改善効果が⼤きい • 摂動に対しても強く、ResNet50→ ResNeXt101でmFDが 58.0%→43.2%、mT5Dが78.3% →65.9%に改善 ResNeXT 改善効果 https://arxiv.org/abs/1608.06993 DenseNet https://arxiv.org/pdf/1611.05431.pdf
23.
頑健性向上に効果があった手法4,5 Stylized ImageNetで学習させる • 対象となる物体・動物の形状以外にノイズを加えたデータセット •
ResNet-50においてmCEが76.7%→69.3%に改善 https://openreview.net/pdf?id=Bygh9j09KX Adversarial sample Defenseを使う • 敵対的サンプルに対する防御⽅法ALPという⼿法を使う • 摂動に対して強く、ResNet-50においてmFPが40%、mT5Dが 41%改善 https://arxiv.org/pdf/1412.6572.pdf 敵対的サンプルの例 頑健性向上に効果があった手法3
24.
頑健性向上に効果がなかった手法 Stability Training • JPEGの圧縮ノイズを乗せた画像でfine-tuneする。 •
mCEが悪化し、mFRが少しだけ改善(58%→57%)という結果 • ImageNet-C, ImageNet-Pは⾊々な汚染・摂動があるため、 JPEG圧縮ノイズだけでは対応できなかったと著者らは推測 Image Denoising • non-local mean Filterで画像で前処理をする • mCEが悪化(76.7%→82.1%)という結果 • ノイズ以外の重要な特徴を取り除いている可能性あり、著者ら はと推測 http://opencv.jp/opencv2-x-samples/non-local-means-filter
25.
頑健性向上に効果がなかった手法 頑健性向上に効果がなかった手法 10-Crop Classification • 4つ角と中央から画像を切り取り、さらに左右反転をとることにより 頑健性向上を狙う •
あまり効果はなかった Simpler Models • 従来から簡単なネットワークの方が頑健性が高い説がある(気がする) • 疎な重みをもつDenseNetであるCondenseNetで実証実験 • 綺麗なデータの精度とmCEが共に悪化。 • 前述の通り、深いネットワークの方が頑健性が高い。
26.
結論
27.
3+1行でまとめると • 画像の汚染と摂動に対するネットワークの頑健性を調査 • 上記の頑健性を図るための指標とデータセット 「ImageNet-C」
「ImageNet-P」を提供 • どのような手法が頑健性に効くのかを調査 • 「とりあえずResNet」より「とりあえずResNeXt」
Download now