Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
亮藤
Uploaded by
亮宏 藤井
PDF, PPTX
1,709 views
MIXUPは最終層でやった方がいいんじゃないか説
2019/9/19 MACHINE LEARNING Meetup KANSAIでの発表資料。ManiFold Mixupの紹介
Data & Analytics
◦
Read more
1
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 12
2
/ 12
3
/ 12
4
/ 12
5
/ 12
Most read
6
/ 12
7
/ 12
8
/ 12
9
/ 12
10
/ 12
11
/ 12
Most read
12
/ 12
Most read
More Related Content
PPTX
Long-Tailed Classificationの最新動向について
by
Plot Hong
PPTX
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
by
Deep Learning JP
PDF
最適輸送の計算アルゴリズムの研究動向
by
ohken
PPTX
[DL輪読会]Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
by
Deep Learning JP
PPTX
Noisy Labels と戦う深層学習
by
Plot Hong
PDF
最適輸送の解き方
by
joisino
PDF
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
by
Deep Learning JP
PPTX
深層学習の数理:カーネル法, スパース推定との接点
by
Taiji Suzuki
Long-Tailed Classificationの最新動向について
by
Plot Hong
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
by
Deep Learning JP
最適輸送の計算アルゴリズムの研究動向
by
ohken
[DL輪読会]Bayesian Uncertainty Estimation for Batch Normalized Deep Networks
by
Deep Learning JP
Noisy Labels と戦う深層学習
by
Plot Hong
最適輸送の解き方
by
joisino
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
by
Deep Learning JP
深層学習の数理:カーネル法, スパース推定との接点
by
Taiji Suzuki
What's hot
PDF
SSII2019TS: Shall We GANs? ~GANの基礎から最近の研究まで~
by
SSII
PDF
CVPR2018のPointCloudのCNN論文とSPLATNet
by
Takuya Minagawa
PDF
生成モデルの Deep Learning
by
Seiya Tokui
PDF
変分推論法(変分ベイズ法)(PRML第10章)
by
Takao Yamanaka
PDF
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
by
SSII
PDF
実装レベルで学ぶVQVAE
by
ぱんいち すみもと
PDF
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
PDF
PRML学習者から入る深層生成モデル入門
by
tmtm otm
PDF
Anomaly detection 系の論文を一言でまとめた
by
ぱんいち すみもと
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
PPTX
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
PDF
グラフニューラルネットワーク入門
by
ryosuke-kojima
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
by
Deep Learning JP
PDF
機械学習モデルのハイパパラメータ最適化
by
gree_tech
PDF
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
by
SSII
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
by
SSII
PDF
Bayesian Neural Networks : Survey
by
tmtm otm
PDF
最適輸送入門
by
joisino
PDF
探索と活用の戦略 ベイズ最適化と多腕バンディット
by
H Okazaki
PDF
深層生成モデルと世界モデル
by
Masahiro Suzuki
SSII2019TS: Shall We GANs? ~GANの基礎から最近の研究まで~
by
SSII
CVPR2018のPointCloudのCNN論文とSPLATNet
by
Takuya Minagawa
生成モデルの Deep Learning
by
Seiya Tokui
変分推論法(変分ベイズ法)(PRML第10章)
by
Takao Yamanaka
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
by
SSII
実装レベルで学ぶVQVAE
by
ぱんいち すみもと
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
PRML学習者から入る深層生成モデル入門
by
tmtm otm
Anomaly detection 系の論文を一言でまとめた
by
ぱんいち すみもと
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
グラフニューラルネットワーク入門
by
ryosuke-kojima
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
by
Deep Learning JP
機械学習モデルのハイパパラメータ最適化
by
gree_tech
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
by
SSII
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
by
SSII
Bayesian Neural Networks : Survey
by
tmtm otm
最適輸送入門
by
joisino
探索と活用の戦略 ベイズ最適化と多腕バンディット
by
H Okazaki
深層生成モデルと世界モデル
by
Masahiro Suzuki
More from 亮宏 藤井
PDF
201010 evolving losses_for_unsupervised_video_representation_learning
by
亮宏 藤井
PDF
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
by
亮宏 藤井
PDF
2020 0906 acl_2020_reading_shared
by
亮宏 藤井
PDF
200704 revisiting knowledge distillation via label smoothing regularization
by
亮宏 藤井
PDF
190410 sc fegan-face_editing_generative_adversarial_network_with_users_sketch...
by
亮宏 藤井
PDF
190602 benchmarking neural network robustness to common corruptions and pertu...
by
亮宏 藤井
PDF
190602 what does_cnn_see
by
亮宏 藤井
PDF
190112 kdgan knowledge distillation with generative adversarial networks
by
亮宏 藤井
PDF
Kdgan knowledge distillation with generative adversarial networks
by
亮宏 藤井
201010 evolving losses_for_unsupervised_video_representation_learning
by
亮宏 藤井
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
by
亮宏 藤井
2020 0906 acl_2020_reading_shared
by
亮宏 藤井
200704 revisiting knowledge distillation via label smoothing regularization
by
亮宏 藤井
190410 sc fegan-face_editing_generative_adversarial_network_with_users_sketch...
by
亮宏 藤井
190602 benchmarking neural network robustness to common corruptions and pertu...
by
亮宏 藤井
190602 what does_cnn_see
by
亮宏 藤井
190112 kdgan knowledge distillation with generative adversarial networks
by
亮宏 藤井
Kdgan knowledge distillation with generative adversarial networks
by
亮宏 藤井
MIXUPは最終層でやった方がいいんじゃないか説
1.
MIXUPは最終層でやった⽅ がいいんじゃないか説 2019/9/19 藤井亮宏
2.
⾃⼰紹介 2 • 名前︓ Ø 藤井
亮宏(アキヒロ) • 所属︓ Ø 株式会社 エクサウィザーズ@京都オフィス • GAN is “ギャン” or “ガン” ? Ø “ガン” @akihiro_akichan 論⽂の⼀⾔紹介とかしてます。
3.
今⽇話すこと ´ ⼊⼒・出⼒データ共に混合してデータ拡張を⾏うMIXUPと、それを発展さ せて中間層で混合を⾏うManifold MIXUPを紹介 ´
混合させる候補の中間層の多数あれど、別の研究で最終層でクラス間のも つれが低くなることが⽰唆され、最終層で混合するのが良いと予測。 ´ 実験的にも最終層で混合したものが⼀番良い結果になっている。 summary 3
4.
⽣成モデルの勉強会を⽉1くらいで開催しています︕ ´ 次の開催は10/17(⽊) 19:30~ ´
「⽣成モデル勉強会 京都」でググると出てくるはず ちょっと宣伝 4 ↓イベントURL URL内に前回のリンクが あり、そこから資料を⾒ れます。
5.
Kaggleでもよく使われるデータ拡張⼿法 ´ Beta分布からサンプリングした混合⽐率をもとに、⼊⼒・出⼒ともに混合 させてデータ拡張を⾏う⼿法 ´ Kaggleの上位ランカーが良く使っている(らしい) ´
GANの安定化にも使える MIXUPとは 5 (論⽂URL︓ https://arxiv.org/pdf/1710.09412.pdf )
6.
データの内挿により、決定境界をより滑らかにする働きがある MIXUPは何をしているか︖ 6 ⽩⿊の2値ラベルデータに少しMIXUP 拡張データを作成した図 ⽩⿊の2値ラベルデータに多数の MIXUP拡張データを作成した図 label 1 label 0 label
1 label 0 label 0.3 label 0.5 label 0.8 ⽩ラベルである確率 ︖ 決定境界の状態 は未知数 ⽩ラベルである確率 内挿データにより、 決定境界が滑らか になる label 0.5 label 0.3 label 0.8 https://www.inference.vc/mixup-data-dependent-data-augmentation/
7.
内挿データが適切とは限らない MIXUPの問題点 7 1 2 3 • ①と②の混合データは適切。 • ①と③の中央をとると、内挿データの ラベルは⻘になるが、実際の内挿点は ⾚のエリアに存在する不適切データに なる。 •
個⼈的にはαの値は⼩さい⽅が精度が出せる印 象がある。 • alphaが⼩さいと、各ラベルに近い場所に内装 する確率が⾼く、上記のように中央をとる確率 が低い。逆にα<1だと中央を取る確率が⾼く なる。 beta分布 http://www.ntrand.com/jp/beta-distribution/ Verma et al(2018)
8.
Manifold MIXUPではデータがより整頓されている中間層でMIXUPを実施する ´ MIXUPを中間層で⾏う⼿法が提案された。多様体学習によって中間層だと 特徴量が整理されており、そこでMIXUPをすれば不適切な拡張データ⽣成 が防げると主張 新しいMIXUPの提案 8 ⼊⼒層におけるMIXUP
中間層におけるMIXUP Verma et al(2018)
9.
どこの層でMIXUPをする のが最適︖ 新しいMIXUPの提案 9
10.
ResNetは最終層でクラス分類に必要な特徴を学習。そこでMIXUPするのが良いのでは︖ ´ この研究によると、ResNet最終Blockの最終層ではクラス間のもつれ(soft nearest neighbor
loss)が⼩さいが、⼊⼒層に近いほど学習が進んでももつれ は⼤きいまま。 ResNetにおける挙動 10 最終層のもつれは⼩さい (クラス毎の特徴を学習) ResNet最終Block各層のもつれ ⼊⼒層のもつれは学習が 進んでも⼤きいまま (ドメインの特徴を学習) Soft Nearest Neighbor loss 値が⾼いと様々なクラ スのデータが混ざって いる 値が低いと各クラ スのデータが分離 されている 最終Blockの最終層 でMIXUPすれば、綺 麗に決定境界が引け そう︕ Frosst et al(2019)
11.
実際に最終層でMIXUPしたものが最良の結果となっている ´ 深い層でMIXUPするほどロスが⼩さくなっている。 最終層でMIXUP 11 Verma et
al(2018) ※この図はAppendixに掲載。強く⾔及されてないので、筆者はあまりこの結果を重視していない︖
12.
まとめ ´ ⼊⼒・出⼒データ共に混合してデータ拡張を⾏うMIXUPと、それを発展さ せて中間層で混合を⾏うManifold MIXUPを紹介 ´
混合させる候補の中間層の多数あれど、別の研究で最終層でクラス間のも つれが低くなることが⽰唆され、最終層で混合するのが良いと予測。 ´ 実験的にも最終層で混合したものが⼀番良い結果になっている。 summary 12
Download