Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent

9,964 views

Published on

2017/11/06
Deep Learning JP:
http://deeplearning.jp/seminar-2/

Published in: Technology
  • Hello! Get Your Professional Job-Winning Resume Here - Check our website! https://vk.cc/818RFv
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here

[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent

  1. 1. 1 DEEP LEARNING JP [DL Papers] http://deeplearning.jp/ A Bayesian Perspective on Generalization and Stochastic Gradient Descent Masahiro Suzuki, Matsuo Lab
  2. 2. 本輪読発表について • A Bayesian Perspective on Generalization and Stochastic Gradient Descent – Samuel L. Smith, Quoc V. Le • arXiv:1710.06451(11/6現在ICLR投稿中) • ちなみにSmith氏はICLRにこれともう1本出している模様 – Don't Decay the Learning Rate, Increase the Batch Size – 元のタイトルはUnderstanding Generalization and Stochastic Gradient Descent(redditでディスられてたから変えた?) • 深層学習における汎化の疑問に,ベイジアンの観点から考える. • 合わせて,深層学習と汎化に関する話題について簡単にまとめました. – もっと知りたい方がいる場合は完全版作ります 2
  3. 3. 目次 • 機械学習と汎化 • 深層学習と汎化 • Flat minimaとsharp minima • ベイズ的観点からの汎化とSGD 3
  4. 4. 機械学習と汎化 4
  5. 5. 機械学習と汎化 • 機械学習で重要なのは汎化能力! – 汎化:訓練集合で学習した後に,未知のデータ(テスト集合)について予測 できる能力のこと – 「最適化」と機械「学習」の違いはここにある. • 問題設定(教師あり学習): – データ分布: – 仮説(識別関数,モデル): , – 損失関数: • やりたいこと: – 期待損失(テスト誤差) を最小化すること – しかしデータ分布は未知なので,直接期待損失を求めることができない!! (x, y) ⇠ D l(ˆy, y) f : x ! y f 2 F R[f] = ED[l(f(x), y)] 5
  6. 6. 汎化ギャップ • 直接データ分布を求められないので,代わりにデータ分布からのサン プルを利用する. – データ集合(訓練集合): – 経験損失(訓練誤差): – データ集合 からアルゴリズム によって得た仮説を とする. • 予測損失の代わりに,経験損失を最小化することにする. – このとき,以下の汎化ギャップを抑えるようにしたい. – 式のとおり,このギャップは,仮説集合,データ集合,アルゴリズム,損失関 数に依存する. – 統計的学習理論はこれを色々考える分野. Dn = (x1, y1), ..., (xn, yn) ˆRn[f] = 1 n nX i=1 l(f(xi), y1) fA(Dn) Rn[fA(Dn)] − ˆR[fA(Dn)] Dn A 6
  7. 7. 汎化ギャップと仮説集合の大きさ • 汎化ギャップは,仮説集合の大きさに依存する. – 仮説集合(モデル容量)が大きいと,ギャップは大きくなる. • 損失は,バイアス(近似誤差)とバリアンス(推定誤差)に分解する ことができる. – 仮説集合が大きくなると,バイアスが小さくなりバリアンスが大きくなる – 仮説集合が小さくなると,バイアスが大きくなりバリアンスが小さくなる [Goodfellow+ 16]より 7
  8. 8. 汎化ギャップの評価 • 汎化ギャップは直接求められないが,なんらかの形で評価したい. • 統計的学習理論では,以下のようなアプローチがある. – 複雑度 – 一様安定性(話さない) – ロバスト性(話さない) • 基本的には,汎化ギャップの上界を求める. Rn[fA(Dn)] − ˆR[fA(Dn)] 8
  9. 9. 仮説集合の複雑度 • PAC学習では,仮説集合の複雑度を考えることで,確率的な上界を 求めることができる. – 複雑度の指標としては,VC次元とラデマッハ複雑度がある. • 経験ラデマッハ複雑度: ただし, は+1と-1を等確率にとる独立な確率変数. – ランダムなラベル付けに対する,関数集合Fの適合度を表す. • 任意の に対して, 以上の確率で次式が成り立つ. – ラデマッハ複雑度によって,汎化ギャップの上界が求められるようになった! ˆR(F) = Eσ[sup f2F ( 1 n nX i=1 σif(xi))] σ1, ..., σn 1 − δ sup f2F Rn[f] − ˆR[f]  2 ˆR(F) + 3 s log 2 δ 2n δ 2 (0, 1) 9
  10. 10. 深層学習と汎化 10
  11. 11. 深層学習と仮説集合の大きさ • 深層学習はパラメータが膨大になる. – つまり仮説集合の大きさはかなり大きい->汎化ギャップも大きいはず – パラメータが増えるほど,汎化ギャップはさらに大きくなるはず • しかし実験的には,パラメータが増えるほど汎化性能が良くなること が知られている[Neyshabur+ 17]. – しかも,経験損失が下がりきっても,予測損失は下がっている. 4 8 16 32 64 128 256 512 1K 2K 4K 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1 H Error Training Test (at convergence) Test (early stopping) 4 8 16 32 64 128 256 512 1K 2K 4K 0 0.1 0.2 0.3 0.4 0.5 0.6 H Error Training Test (at convergence) Test (early stopping) MNIST CIFAR-10 仮説集合の大きさ 11
  12. 12. 深層学習と汎化ギャップ • つまりこういうことになっている. なんで??? Deep learning 12
  13. 13. 既存の学習理論では説明できない現象 • 従来の統計的学習理論で汎化について説明することはできないか? – モデルの複雑度(ラデマッハ複雑度)を計測すればよい. • Zhangらによる実験[Zhang+ 17]: – ランダムなラベル付けをした訓練集合で学習 • 深層モデルは,これを完全に学習した. • ラデマッハ複雑度は1(max)となり,汎汎化化ギギャャッッププのの上上界界がが緩緩くくななるるここととをを意意味味すするる. – モデルに様々な正則化を行って学習 • あまり大きな違いはなかった. • 正則化は仮説集合の大きさを小さくする効果がある. • つまり,仮説集合の大きさを抑える->汎化性能の向上,ととはは限限ららなないい. • 従来の学習理論では説明できないことが,DNNでは起こってい る?? sup f2F Rn[f] − ˆR[f]  2 ˆR(F) + 3 s log 2 δ 2n 13
  14. 14. 視点の転換:最適解の形 • 深層モデルの損失関数は非凸 – 局所的最適解などが沢山ある. – それだけではなく,大域的最適解もいくつかある. -> 最適解の「形」にも注目すべきでは?? • Sharp minimaとflat(broad)minima sharp flat(broad) 14
  15. 15. Flat minimaと汎化性能 • Flat minimaが良い汎化となることが,経験的に指摘されていた [Hochreiter & Schmidhuber+ 97]. – Chaudhariらは,この仮説を元にEntropy-SGDを提案している[Chaudhari+ 17]. • Sharp minimaに行かないような,局所エントロピーに基づく手法. • また,ランダムなラベルで訓練すると,ヘッセ行列の最大固有値が大 きくなる(=sharp minima)ことが確認された[Krueger+ 17] – その他にも,ランダムラベルを学習するためには,モデル容量が大きい必要が あることを確認. • しかし,汎化性能を変えずに,sharp minimaを持つ損失関数に再 パラメータ化できることも示された[Dinh+ 17]. ->良い汎化ななららばばflat minima,ではない! 15
  16. 16. バッチサイズとflat minima • Keskarは,大規模なバッチサイズがsharp minimaに落ちることを 実験的に示した[Keskar+ 16]. – 小規模なバッチサイズだとflat minimaに落ちることも確認. • 一方,Hofferは,大規模なバッチサイズがsharp minimaに落ちる のは,反復回数が足りないだけと主張[Hoffer+ 17]. – Flat minimaに行くには時間がかかる. – 異なるバッチサイズで反復回数を同じになるように学習率を調節すると,汎化 ギャップがなくなっていることを確認. – (ただし,一様安定性の観点からは,反復回数を増やさないほうがSGDは安定 する[Hardt+ 16]) 16
  17. 17. ベイズ的観点からの汎化とSGD 17
  18. 18. ベイズ的観点からの汎化とSGD • A Bayesian Perspective on Generalization and Stochastic Gradient Decent[Smith+ 17] – この論文では,汎化とSGDについて次の2つの問題に取り組んでいる. • 訓練で獲得した局所解が汎化するかどうか. • なぜSGDは汎化性能の高い局所解を獲得するのか. – ベイズ的な視点で検証するといろいろわかってくる. 18
  19. 19. ベイズの定理と事後分布 • モデルをM,パラメータをω とすると,パラメータの事後分布は, – 尤度をone-hotのクロスエントロピーとすると, , – 事前分布は,ガウス分布 . • したがって事後分布は, • は正則化パラメータ • これはL2正則化クロスエントロピーコスト関数となる { }i 1 P(!|{y}, {x}; M) = P({y}|!, {x}; M)P(!; M) P({y}|{x}; M) P({y}|!, {x}; M) = Q i P(yi|!, xi; M) = e−H(!;M) ( ) P ( ( | )) { } ) Q i (y | ) H(!; M) = − P i ln (P(yi|!, xi; M)). p 2 P(!; M) = p λ/2⇡e−λ!2 /2 P(!|{y}, {x}; M) / p λ/2⇡e−C(!;M) , where C(!; M) = H(!; M) + λ!2 /2 / P({y}|!, {x}; M)P(!; M). λ 19
  20. 20. 予測分布 • 予測分布は,パラメータを周辺化して – ここで,パラメータの積分のほとんどが の領域で, が滑らかだと すると,コスト関数Cを最小化してパラメータ を求めて,予測分布を と近似できる. P(yt|xt, {x}, {y}; M) = Z d! P(yt|!, xt; M)P(!|{y}, {x}; M) = R d! P(yt|!, xt; M)e−C(!;M) R d! e−C(!;M) . P(yt|!, xt; M) ( ) !0, !0, y g P(yt|xt; M) ⇡ P(yt|!0, xt; M) 20
  21. 21. ベイズ的モデル比較 • 学習したモデル選択のために,2つのモデルM1とM2のエビデンス (周辺尤度)を比較する. – この設定では,エビデンスは次のように計算できる. ただし, はモデルパラメータ数, はヘッセ行列の固有値. • オッカムの剃刀:2つのモデルが同じ精度ならば,より単純なモデル を選択すべきという指標. – 第2項は,オッカム係数. – 曲率の小さい(=flat minima)最小値のほうが,パラメータをデータに合わせ る必要がないので単純になる. P(M1|{y}, {x}) P(M2|{y}, {x}) = P({y}|{x}; M1) P({y}|{x}; M2) P(M1) P(M2) P({y}|{x}; M) ⇡ exp ( − C(!0) + 1 2 PX i=1 ln(λi/λ) !) / λiP 21
  22. 22. ランダムラベルとの比較 • この研究では,ラベルが完全にランダムで,各クラスに等しい確率を 割り当てるモデルとしてnullモデルを考えて,比較する. – nはモデルクラス数,Nはラベル数 • エビデンスの比は, ただし – この比が0より小さければ,予測モデルが信頼できないことになる. • [Dinh+ 17]と違い,モデルのパラメータ化に依存しない. – [Dinh+ 17]では,ヘッセ行列の固有値 を変更してパラメータ化を変えていた が,正則化パラメータ も変える必要があった. – 一方,本手法では となっているので,オッカム係数は変わらない. P({y}|{x}; NULL) = (1/n)N = e−N ln (n) h b f i i l b l h h id P({y}|{x}; M) P({y}|{x}; NULL) = e−E(!0) , E(!0) = C(!0)+(1/2) P i ln(λi/λ)−N ln(n) i λ λi ln(λi/λ) 22
  23. 23. 深層学習とヘッセ行列の計算 • 深層モデルでは,パラメータ数が数百万にもなるので,ヘッセ行列を 求めて,エビデンスを計算できない! • また,多くの同等の最小値があることも考慮する必要. – 隠れユニットの入れ替えで,同値の表現を作れるため. 23
  24. 24. 単純なラベルでのランダムラベル問題 • [Zhang+ 17]では,DNNのように仮説集合の大きい場合に,ランダ ムラベルを完全に記憶してしまう問題があった. -> 本研究では,はるかに単純なモデル,ロジスティック回帰で試す. • データセット:各要素をガウス分布からサンプリングした200次元ベ クトルの入力 – 2つのタスクで実験: • ランダムに0,1を割り当て(ランダムラベルの場合) • 要素の和が1より大きいなら1,そうでなければ0(ラベルを正しく割り当てた場合) x 24
  25. 25. 実験1-1:簡単なモデルで問題が生じるか確認 – (a):ランダムラベルの場合,(b)ラベルを正しく割り当てた場合 – ロジスティック回帰でも,ランダムラベルを完全に記憶してしまうことがわか る. • 正則化を高めても,モデルの性能は改善していない. • [Zhang+ 17]の指摘を簡単なモデル,データセットでも再現できた! (a) (b) 25
  26. 26. 実験1-2:ベイズ的エビデンスによる評価 • 対数エビデンス比の値をプロット – 評価を正解率からクロスエントロピーに変更 – (a):ランダムラベルの場合,(b)ラベルを正しく割り当てた場合 – 訓練集合で評価しているにもかかわらず,対数エビデンス比は予測損失(テス ト誤差)とほぼ同じ傾向を示している. -> ベイズ的エビデンスが,この現象を説明している! (a) (b) 26
  27. 27. SGDとベイズ推定と汎化 • 前述の結果から,深層ネットワークを訓練する場合は,損失関数では なく,エビデンスを最大にするように極小値をみつけるべきである. – ベイジアンは,ノイズを入れることでベイズ推定等を行っている. • SGDは,パラメータの近似ベイズ推定を行っているとみなせる [Mandt+ 17] – 一定の学習率を持つSGDは,定常分布を持つマルコフ連鎖をシミュレートして いる. • よって,SGDの「ノイズ」を調節することで,良い汎化とすること ができる. – 小規模なバッチは,より大きなノイズを与える. – ノイズによって,sharp minimaから遠ざかるようになる([Keskar+ 16]の話と 一致). – つまり,勾配->深い最適値,ノイズ(ミニバッチ)->flat minima 27
  28. 28. 隠れ層を持つモデルでの実験 • 線形モデルでは,単一の凸最適値しかないので,汎化ギャップを確認 できなかった. – ベイジアンの直感とも一致. • 800個の隠れユニットをもつ浅いニューラルネットワークで実験. – MNISTで学習(1000枚のみ) – モーメンタムSGD ->汎化ギャップを示す最も単純なモデル 28
  29. 29. 実験2-1:バッチサイズによる予測損失の変化 • 大規模なバッチ(1000)と小規模なバッチ(30)での比較 – (a):正解率,(b)クロスエントロピー – 小規模な方は時間がかかるものの,良い汎化性能となる. – ただし,L2正則化によって同じくらいとなった(図はappendix参照) (a) (b) 29
  30. 30. 実験2-2:バッチサイズによる正解率の変化 • 1~1000のバッチサイズで実験 – (a):各ステップの正解率,(b)10000ステップでのバッチサイズごとの正解率 – ベイズ推定で想定されるように,明確なバッチサイズのピークが存在する. • バッチサイズが10以下だとうまく学習できなくなる. (a) (b) 30
  31. 31. バッチサイズと各パラメータの関係 • 最適なバッチサイズが,学習率ε,訓練集合サイズN ,そしてモーメ ンタムの係数ωにどのように影響するかを調べる. • SGDは – は真の勾配, はバッチの期待勾配 • 上の式を,確率的微分方程式の離散更新とみなす. • すると,最終的に というルールが得られる. – 式展開の詳細は,論文参照. – バッチサイズと,学習率,訓練集合サイズ ,モーメンタムの係数の関係を示 している. ∆! = ✏ N dC d! + d ˆC d! − dC d! !! dC d! = PN i=1 dCi d! h d d ˆC d! = N B PB i=1 dCi d! d! dt = dC d! + ⌘(t) g = ✏(N B − 1) ⇡ ✏N/B. fl i i 31
  32. 32. 実験3-1:最適バッチサイズと学習率の関係 • MNISTで学習 – (a):バッチサイズと正解率,(b)学習率と最適バッチサイズ – ルールの通り,バッチサイズと学習率が比例関係になっている. (a) (b) Bopt / ✏ 32
  33. 33. 実験3-2:最適バッチサイズと訓練集合サイズの関係 • MNISTで学習 – (a):バッチサイズと正解率,(b)訓練集合サイズと最適バッチサイズ – ルールの通り,バッチサイズと訓練集合サイズが比例関係になっている. (a) (b) Bopt / N 33
  34. 34. スケーリングルールの効果 • 求めたルールによって,次の影響がある. – バッチサイズを大幅に増やすことができる. • 精度を落としたり,計算コストを上げなくても,学習率を調節することで,大幅に向上さ せられる. – 大きなサイズの商用データセットを利用できる. • [Hoffer+ 17]では という方法が提案されている. • しかし今回の実験では,[Hoffer+ 17]の方法では学習率が大きすぎて,逆に精度が下がる結 果となった. ✏ / p Bopt. h 34
  35. 35. 実験3-3:最適バッチサイズとモーメンタム係数との関係 • MNISTで学習 – (a):バッチサイズと正解率,(b)モーメンタム係数と最適バッチサイズ – ルールの通り,反比例の関係になっている. • 詳細はappendix (a) (b) 35
  36. 36. まとめ • 深層学習の汎化を考えると,従来の枠組みでは説明できない現象が発 生している. – 仮説集合が大きいほど,汎化ギャップが下がる. – 複雑度の指標だと汎化ギャップの上界を抑えられない. • Flat minimaに行けば,良さげになりそう. – ただし反例もある. – バッチサイズが関連してそう.ただしこれも反例あり. • ベイジアン的に汎化の問題を捉える. – という以前に,単純なモデルでもランダムラベルが学習される問題発生してる. – モデルエビデンスを比較することで,この問題の解釈が可能になった(ただし 多層はまだ) – SGDを近似ベイズ推定と考えると,ノイズがsharp minimaにはいることを避け ている.バッチサイズが小さいといいのもそのため. – バッチサイズと学習率やデータサイズなどとのルールが得られた. 36
  37. 37. 感想 • 汎化ギャップを考えるには,モデルや損失関数だけではなく,アルゴ リズムやデータ集合についても考える必要がある(定義の通り). – SGDはflat minimaの獲得に貢献している? – データによる正則化(data augmentationとか)による違いは? • この分野は,今くらいが楽しい時期かも. • 今回,発表時間的に断念した論文(おすすめ) – [Kawaguchi+ 17] Generalization in Deep Learning • 最初の定式化が素晴らしい(参考にしました).まとめ方が博論っぽくてすごい. – [Neyshabur+ 17] Exploring Generalization in Deep Learning • この辺りの研究をずっとされているNeyshabur氏の論文. – [Wu+ 17] Towards Understanding Generalization of Deep Learning: Perspective of Loss Landscapes • Flat minimaに落ちる理由に納得感がある説明. 37
  38. 38. 参考資料(論文) • [Dinh+ 17] Sharp Minima can Generalize for Deep Nets • [Hardt+ 16] Train faster, generalize better: Stability of stochastic gradient descent • [Hoffer+ 17] Train longer, generalize better: closing the generalization gap in large batch training of neural networks • [Kawaguchi+ 17] Generalization in Deep Learning • [Keskar+ 16] On large-batch training for deep learning: Generalization gap and sharp minima • [Krueger+ 17] Deep Nets Don't Learn via Memorization • [Mandt+ 17] Stochastic Gradient Descent as Approximate Bayesian Inference • [Smith+ 17] A Bayesian Perspective on Generalization and Stochastic Gradient Decent • [Neyshabur+ 17] Geometry of Optimization and Implicit Regularization in Deep Learning • [Neyshabur+ 17] Exploring Generalization in Deep Learning • [Wu+ 17] Towards Understanding Generalization of Deep Learning: Perspective of Loss Landscapes • [Zhang+ 16] Understanding deep learning requires rethinking generalization 38
  39. 39. 参考資料(スライドや本等) • [Bousquet,17] Why Deep Learning works?(http://www.ds3-datascience- polytechnique.fr/wp-content/uploads/2017/08/2017_08_31_1630- 1730_Olivier_Bousquet_Understanding_Deep_Learning.pdf) • [Deng+ 14] Rademacher Complexity (http://web.eecs.umich.edu/~cscott/past_courses/eecs598w14/notes/10_rade macher.pdf) • [Goodfellow+ 16] Deep Learning • [岡野原, 17] Deep Learning Practice and Theory (https://www.slideshare.net/pfi/deep-learning-practice-and-theory) • [金森,15] 統計的学習理論 (機械学習プロフェッショナルシリーズ) 39

×