Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

20170422 数学カフェ Part2

8,200 views

Published on

https://connpass.com/event/54301/

Published in: Technology
  • Hello! Get Your Professional Job-Winning Resume Here - Check our website! https://vk.cc/818RFv
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here

20170422 数学カフェ Part2

  1. 1. 数学カフェ 「確率・統計・機械学習」 (Part2) 2017年4⽉22⽇数学カフェ Yahoo! Japan コワーキングスペース LODGE 株式会社Preferred Networks ⼤野健太 oono@preferred.jp
  2. 2. アジェンダ • 汎化誤差と訓練誤差 • 汎化誤差の分解 • 近似誤差 • 最適化誤差 • 推定誤差 2
  3. 3. 問題設定とアプローチ 問題 • 訓練データ:D = {(x1, y1), …, (xN, yN)}が与えられている • 未知データ x からラベル y を予測する予測モデルを作りたい アプローチ • 真のデータ分布 q が存在し、Dの各サンプルは q から独⽴同分 布にサンプリングされたと仮定する:(xi, yi) ~ q i.i.d. • 仮説集合 H = {pθ | θ ∈ Θ}と損失関数 L(x, y; θ) を設定する 3
  4. 4. 汎化誤差と訓練誤差 汎化誤差: E (θ) = E(x, y)~q [L(x, y; θ)] • 本当に最⼩化したいもの • 真のデータ分布 q がわからないので計算出来ない 訓練誤差: E^ (θ) = 1 / N Σi L(xi , yi ; θ) • 計算できるけれど、本当に最⼩化したいものではない • Dから決まる経験分布 q^ に関するLの期待値 E(x, y)~q^ [L(x, y; θ)] と書ける 4 経験分布:q^ (x, y) = ((x, y)が出た回数) / N
  5. 5. KLダイバージェンス ⼀般に距離の公理は満たさない • ⼀般に KL (q || p) ≠ KL (p || q) • 適当な条件で KL(q || p) = 0 ⇔ q = p は⾔える 5 KL(qkp) := E(x,y)⇠q  log q(x, y) p(x, y) 2つの分布の間の「距離」を測る概念
  6. 6. KLダイバージェンス このスライドだけ以下の状況を考える • 損失関数は L(x, y; θ) = - log p(y | x; θ) (負の対数尤度) • p (x; θ) は θ によらず⼀定 6 KL(qkp✓) = E(x,y)⇠q  log q(x, y) p(x, y; ✓) = E(x,y)⇠q [ log p(x, y; ✓)] + const. = E(x,y)⇠q [ log p(y | x; ✓) log p(x; ✓)] + const. = E(x,y)⇠q [ log p(y | x; ✓)] + const. = E(✓) + const. このとき、汎化誤差最⼩化とKLダイバージェンス最⼩化は同値
  7. 7. argminは存在して⼀意ですか? → ⼀般的には存在性も⼀意性もNo 7 汎化誤差最⼩解 θ* = argminθ E (θ) 訓練誤差最⼩解 θ^ = argminθ E^(θ)
  8. 8. ⼀意性がない(かもしれない)問題設定 8 x1 x2 x3 x4 y 0 出⼒の重みが0のユニットへの⼊⼒の重みはNNの出⼒値に影響しない
  9. 9. ⼀意性がない(かもしれない)問題設定 9 x1 x2 x3 x4 y 特定の2つのユニットを結合を含めて交換しても、出⼒の値は変化しない
  10. 10. 機械学習界隈は存在性・⼀意性にあまり 興味がない? • 存在性 • ⽬的関数が連続である場合が多く、パラメータ空間をコンパクトにす れば、⾃動的に存在が⾔えてしまう • アルゴリズムが有限回のステップで⽌まるなどの理由で、そもそも最 ⼩解がアルゴリズム的に得られない場合、存在性するかどうかは気に ならない • ⼀意性 • 特定のデータセットへの適⽤時には、最⼩解の中から1つだけ得られ れば⼗分な場合が多い • 後で⼀意性がないために起こる困難について少し触れます 10
  11. 11. アジェンダ • 汎化誤差と訓練誤差 • 汎化誤差の分解 • 近似誤差 • 最適化誤差 • 推定誤差 11
  12. 12. 汎化誤差の分解 [Bottou+11][得居15] 12 近似誤差 推定誤差 最適化誤差 θ* : 汎化誤差最⼩解 argminθ E (θ) θ^ : 訓練誤差最⼩解 argminθ E^(θ) θ0 : アルゴリズムで実際に得られたパラメータ L. Bottou and O. Bousquet, “The tradeoffs of large scale learning,” In Optimization for Machine Learning, MIT Press, pp. 351‒368, 2011. 最適化から⾒たディープラーニングの考え⽅, 得居 誠也, オペレーションズ・リサーチ : 経営の科学 60(4), 191-197, 2015-04-01 E(✓0) = E(✓⇤ ) + h E(ˆ✓) E(✓⇤ ) i + h E(✓0) E(ˆ✓) i
  13. 13. 13
  14. 14. Tomaso Poggioの問題提起 [Poggio+16] 14 Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv preprint arXiv:1611.00740. https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
  15. 15. 近似誤差 推定誤差最適化誤差 E(✓0) = E(✓⇤ ) + h E(ˆ✓) E(✓⇤ ) i + h E(✓0) E(ˆ✓) i 仮説集合は本物の分布をどのくらい 近似する能⼒があるか?
  16. 16. Tomaso Poggioの問題提起 [Poggio+16] 16 Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv preprint arXiv:1611.00740. https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
  17. 17. 普遍性定理 ([Cybenko+89] etc..) Note • 定義域の[-1, 1]dはコンパクト空間に拡張できる • [Cybenko+89]以降⾊々なバリエーションで証明されている • [Cybenko+89]ではHahn-Banachの定理とRieszの表現定理を使う。 • Nielsenによる証明が構成的で平易 17 Cybenko., G. (1989) "Approximations by superpositions of sigmoidal functions", Mathematics of Control, Signals, and Systems, 2 (4), 303-314 http://neuralnetworksanddeeplearning.com 隠れ層1層で活性化関数がシグモイド関数のNN全体は、 supノルムに関して、C([-1, 1]d)の中で稠密
  18. 18. 深層モデルのExpressibility 18 ↓COLT(機械学習・学習理論に関する国際会議)2016年の1セッション
  19. 19. Sum-Product Network [Domingos+11] • 2種類のノードを交互に積み上げたネットワーク • ⼊⼒の重み付き和を出⼒するノード • ⼊⼒の積を取るノード • 歴史的には分配関数を効率よく計算できるグラフィカルモデル は何かという問いから考えられた(らしい) 19 Poon, H. and Domingos, P. (2011). Sum-product networks: A new deep architecture. In UAIʼ2011, Barcelona, Spain.
  20. 20. 層を深くするメリット[Delalleau+11] • ⾼さ2n段、各ノードが2⼊⼒のSum-product network (=⼊⼒ 数4n)を2段のSum-product Networkで実現するには、1段⽬の 掛け算ノードが少なくとも22^n-1個必要 (Collorary 1) 20 Delalleau, Olivier, and Yoshua Bengio. "Shallow vs. deep sum-product networks." Advances in Neural Information Processing Systems. 2011. Proposition 3でも別のタイプの多層 Sum-product networkで似た主張を⽰す 多層では O(M) 個のパラメータで表現 できるが、2段では O(exp(M)) 個のパ ラメータが必要な関数が存在する
  21. 21. 普遍性定理の問題点 • あくまで存在定理、NNの構成⽅法は⽰していない • Nielsenの証明は構成的だが、NNのパラメータを極端な値に 振って構成するので、現実的なNNとは程遠い • そもそも最⼩化対象の汎化誤差は訓練データだけからは計算で きない 21 近似誤差 最適化誤差+推定誤差 E(✓0) = E(✓⇤ ) + h E(ˆ✓) E(✓⇤ ) i + h E(✓0) E(ˆ✓) i アルゴリズムで得られるNNと存在定理の保証 するNNはどのくらいの差があるか?
  22. 22. 近似誤差 推定誤差 最適化誤差 E(✓0) = E(✓⇤ ) + h E(ˆ✓) E(✓⇤ ) i + h E(✓0) E(ˆ✓) i 訓練誤差を最⼩にする理想の解と実 際のアルゴリズムで得られる現実の 解はどのくらい違うか?
  23. 23. Tomaso Poggioの問題提起 [Poggio+16] 23 Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv preprint arXiv:1611.00740. https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
  24. 24. 残念なお知らせ(再掲) 深層学習のモデルが作る損失関数は⾮凸 ⼼配事1 「勾配法はsaddle pointにはまってしまうのでは!?」 ⼼配事2 「勾配法はlocal minimumにしかたどりつけないのでは!?」 • Q. 深層学習のモデルが作る損失関数はどのような形をしているか? • Q. その損失関数の最適化するのに適したアルゴリズムは何か? 24
  25. 25. 臨界点と指数 • θ = a が関数 f : Rd→Rの臨界点 ⇔ ∇θ f (a) (= [∂i f (a)]i=1,..,d ) = 0 • 臨界点でのHessianの負の固有値の数を指数という 25 Hessian H(a) = ∇θ∇θ T f (a) ( = [∂i∂j f(a)]ij=1,…,d ) Hessianは対称⾏列 → 実数固有値を(重複度含めて)d個持つ
  26. 26. 臨界点と指数 • 関数の臨界点を指数により分類する 26 指数 = 0 極⼩(local minimum) 0< 指数 < d 鞍点(saddle point) または極⼤(local maximum) 指数 = d 極⼤(local maximum)
  27. 27. プラトー 27
  28. 28. 深層モデルの損失関数のsaddle point [Dauphin+14] • 臨界点における損失関数の値と指数は正の相関がある • 損失関数の⼤きな所にある臨界点はほとんどsaddle pointでは? • saddle pointで停留しない勾配法を提案 28 Dauphin, Yann N., et al. "Identifying and attacking the saddle point problem in high-dimensional non-convex optimization." Advances in neural information processing systems. 2014.
  29. 29. 物理モデルへの帰着 ニューラルネットや⼊⼒に適当な仮定を置くことで、損失関数 を適当な物理モデルのハミルトニアンの形に帰着させる • ランダムガウシアンモデル [Bray+07] • Spherical spin glass モデル [Choromanska+15] ランダム⾏列理論やが使える⼀⽅で、仮定が現実的ではないと いう批判もある([Kawaguchi16]など) 29 Bray, Alan J., and David S. Dean. "Statistics of critical points of gaussian fields on large-dimensional spaces." Physical review letters 98.15 (2007): 150201. Choromanska, Anna, et al. "The Loss Surfaces of Multilayer Networks." AISTATS. 2015.
  30. 30. 深層モデルの損失関数のSaddle point [Choromanska+15]など ReLUを活性化関数とする多層パーセプト ロンの損失関数を近似によりspherical spin glassのエネルギー関数に帰着させる ⽰したこと(informal) • 臨界点は指数が⼩さいほど、⾼確率で存 在するエネルギー帯が低エネルギー帯に 広がっている • ネットワークのユニット数が増えるほど、 ある⼀定の値以下のエネルギー帯に含ま れる臨界点のうち、指数が⼩さいもの割 合が指数的に増える 30 Choromanska, Anna, et al. "The Loss Surfaces of Multilayer Networks." AISTATS. 2015. E -E∞-E0 -E1 -E2 ・・・ 例えば指数2の臨界点は ⾼確率でここにある
  31. 31. Gradient-based optimization 31http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html saddle pointやlocal minimumで停留しないよう様々な最適化⼿法 が提案されている つい最近はSGDの分散を抑えるよ うな⼿法(Stochastic Variance Reduced Gradient; SVRG)が流 ⾏っていた気がする
  32. 32. 統計多様体と特異モデル • 仮説空間として確率分布族を考える。 • Fisher 情報量が各点で⾮退化ならば、この族にはFisher情報量 を計量とするリーマン多様体の構造が⼊る 32 p q Fisher 情報量 G(θ) = (Gij (θ)) ij=1,…,d Gij (θ) = E [∂i log p(x, y; θ) ∂j log p(x, y; θ)] (期待値は(x, y)~pθに関して)
  33. 33. Natural gradient [Amari+98] Gradient Descent (GD)で勾配にFisher情報量の逆⾏列を掛ける • 通常のGDはFisher情報量が潰れている箇所で移動距離が⼩さ くなり、停滞してしまう • Fisher情報量の逆⾏列でキャンセルする 33 Amari, Shun-Ichi. "Natural gradient works efficiently in learning." Neural computation 10.2 (1998): 251-276. θ ← θ - η Gθ -1∇θ L(x, y; θ)
  34. 34. 残念なお知らせ: 深層学習のモデルが作る損失関数は⾮凸 ⼼配事1 「勾配法はSaddle pointにはまってしまうのでは!?」 ⼼配事2 「勾配法はlocal minimumにしかたどりつけないのでは!?」 • Q. 深層学習のモデルが作る損失関数はどのような形をしているか? • Q. その損失関数の最適化するのに適したアルゴリズムは何か? 34
  35. 35. 深層学習モデルの作る損失関数の Local minima [Choromanska+15] 35 Choromanska, Anna, et al. "The Loss Surfaces of Multilayer Networks." AISTATS. 2015.
  36. 36. No-bad-local-minima Theorem [Kawaguchi16], [Lu+17] • 訓練データとネットワークに関する緩い条件 • 線形NN(活性化関数が恒等関数) • 損失関数は2乗誤差 → 訓練誤差関数のlocal minimumはglobal minimumである 36 Kawaguchi, Kenji. "Deep learning without poor local minima." Advances In Neural Information Processing Systems. 2016. Lu, Haihao, and Kenji Kawaguchi. "Depth Creates No Bad Local Minima." arXiv preprint arXiv:1702.08580 (2017). 余談:local minimum = global minimumという定理は深層学習以外の⽂脈でも幾つか存在する (テンソル分解など) フルランク・固有値が相異など、 ユークリッド空間でほとんど⾄る所成⽴する ような条件
  37. 37. No-bad-local-minima Theorem [Kawaguchi16], [Lu+17] 37 (画像はイメージです) Kawaguchi, Kenji. "Deep learning without poor local minima." Advances In Neural Information Processing Systems. 2016. Lu, Haihao, and Kenji Kawaguchi. "Depth Creates No Bad Local Minima." arXiv preprint arXiv:1702.08580 (2017).
  38. 38. 38 Tomaso Poggio, Qianli Liao, Theory II: Landscape of the Empirical Risk in Deep Learning, arXiv:1703.09833 Poggioらは、実験結果 から損失関数は右図 (A)のような形をして いるという仮説を⽰し ている[Poggio+17]
  39. 39. 近似誤差 推定誤差 最適化誤差 E(✓0) = E(✓⇤ ) + h E(ˆ✓) E(✓⇤ ) i + h E(✓0) E(ˆ✓) i 汎化誤差と訓練誤差にはどのくらい の違いがあるか?
  40. 40. Tomaso Poggioの問題提起 [Poggio+16] 40 Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B., & Liao, Q. (2016). Why and When Can Deep--but Not Shallow--Networks Avoid the Curse of Dimensionality: a Review. arXiv preprint arXiv:1611.00740. https://mcgovern.mit.edu/principal-investigators/tomaso-poggio
  41. 41. 汎化誤差と訓練誤差(再掲) • 汎化誤差: E (θ) = E(x, y)~q [L(x, y; θ)] • 本当に最⼩化したいもの • qがわからないのでこれを計算することは出来ない • 訓練誤差: E^ (θ) = 1 / N Σi L(xi , yi ; θ) • これならば計算できる代わりに最⼩化するもの • けれど、本当に最⼩化したいものではない 41 θ* : 汎化誤差最⼩化 θ* = argminθ E (θ) θ^ : 訓練誤差最⼩化 θ^ = argminθ E^(θ)
  42. 42. 統計的推論 42 q データ分布 サンプリング (xi, yi) ~ q i.i.d D ={(xi, yi)i=1,…,n} 推定 (訓練誤差最⼩解) pθ 訓練データ 学習モデル pθはqに「近い」か? • n→∞ でpθ → qか? • 収束のスピードは?
  43. 43. 例:コイン投げ 確率 θ で表(Head)が出るコインを考える。コイン投げの結果からコイ ンの表が出る確率 θ を推定したい。 問題設定 • 真の分布:q (x = H) = Ber (x | θ), 0 < θ < 1 • 訓練データ:n 回投げた結果 D ={x1, …, xn}, xi ∈ {H, T} 推定量:θ^D := (表の出た回数) / n (実はこれは最尤推定) 43 ⼀般に統計モデルとして指数型分布族を⽤いて、真の分布が統計モデル 内にある(realizable)な場合、最尤推定量は有効⼀致推定量となる 特に p n (ˆ✓D ✓) p ✓(1 ✓) d ! N(0, 1) n 1 2 +✏ (ˆ✓D ✓) d ! 0 (中⼼極限定理)
  44. 44. 特異モデルの統計的学習理論 NNは汎化誤差最⼩解に⼀意性がないかもしれない(特異モデル) ↓ ⼀致性 θ^D → θ など 通常の統計的学習理論での漸近解析が展開できない 44 特異モデルの統計的学習理論(渡辺澄夫先⽣の理論)には、 代数幾何(特異点解消・ブローアップ)・超関数・佐藤b 関数など数学の理論がふんだんに使われている
  45. 45. Rademacher complexity 仮説空間の「複雑度」を図る指標 45 R(H, D) = E " sup h2H X i ih(zi) # = ( 1, . . . , n), i ⇠ Ber ✓ 1 2 ◆ R(H) = ED⇠q [R(H, D)] 経験 Rademacher complexity Rademacher complexity 特に、ラベル y∈{-1, +1}で、仮説空間内のモデルが確定的な関数の場合 i.e. H ⊂ {f | f : Rd → {±1}}
  46. 46. Rademacher complexityによる 汎化性能の評価 46 この不等式を使ってVC次元で評価する⽅法もある 推定誤差 Rademacher complexity
  47. 47. Uniform stabilityを⽤いた汎化性能の評価 [Hardt+15] 47 Hardt, Moritz, Benjamin Recht, and Yoram Singer. "Train faster, generalize better: Stability of stochastic gradient descent." arXiv preprint arXiv:1509.01240(2015). 損失関数には有界性・Lipschitz性 とsmooth性しか仮定していない (⾮凸関数(NNなど)でもよい) ε-uniformly stableならば汎化 性能(の期待値)を評価できる SGDで得られる予測モデルは ε-uniformly stable
  48. 48. 深層学習の汎化性能 [Zhang+16] 深層学習のモデルをでラベルをランダムなものに⼊れ替えた データセットで学習したら訓練誤差を0にできた 経験Rademacher complexityがほぼ1であることを⽰唆 48 Zhang, Chiyuan, et al. "Understanding deep learning requires rethinking generalization." arXiv preprint arXiv:1611.03530 (2016). VC次元やuniform stabilityなど、その他の汎化性 能を評価する指標でも説明できないと主張 ここが1だと不等式は⾃明に成⽴
  49. 49. [Zhang+16] に対する批判 • Rademacher complexityによる汎化性能の評価は、仮説集合のすべての 元で成⽴する、⼀様な評価なので、これが使えないことは統計的学習理 論の⽅ではよく知られていた(ということを講演者は最近知った) • その他には[David+17][Akiba17]などによる後続検証がある 49 David Krueger et al, Deep Nets Don't Learn via Memorization, ICLR2017 workshop https://medium.com/@iwiwi/it-is-not-only-deep-learning-that-requires-rethinking- generalization-32ec7062d0b3 深層学習の汎化性能は⽐較的まだ 理論解析されていない
  50. 50. まとめ • 汎化誤差は近似誤差・最適化誤差・推定誤差の3つに分解でき ます • 普遍性定理により隠れ層が1層のNNも⼗分表現能⼒が⾼いです が、層を増やすことで「効率的」に関数を近似できます • 深層学習モデルの訓練について、理論的には損失関数の臨界点 の分布が調べられていて、勾配法(orその改良)の性能の良さ を理論的に説明する試みがされています • 汎化性能はRademacher複雑性・Uniform stabilityなどのよる 保証がありますが、深層学習の汎化性能に関しては未解決な問 題が多いです 50
  51. 51. 数学と機械学習 数学と物理の関係 • 数学の⾔葉を⽤いて物理を厳密に記述する • 超関数・ヒルベルト空間・リーマン多様体 etc. • 物理の問題や考え⽅から新しい数学を開発する • 数論的⼒学系・エルゴード理論・頂点作⽤素代数 etc. • 同じような関係を機械学習と数学の間に構築することはできな いか? 51
  52. 52. 今⽇話せなかったこと(機械学習編) • ベイズ機械学習 • Graphical model, Ising model • HMM • 混合ガウス分布, EMアルゴリズム • クラスタリング, K means • 変分ベイズ • SVM • 情報量基準(AIC, BIC, WAIC) • ⼀般線形モデル • スパースモデル • カーネル法, 再⽣核ヒルベルト空間 • サンプリング(MCMC) 52 • 特徴選択 • 正則化 • 実装(scikit-learnなど) • 分散機械学習 • オンライン機械学習 • 強化学習, バンディット
  53. 53. 今⽇話せなかったこと(深層学習編) • 具体的なモデル(CNN, RNN) • 深層モデルの正則化(regularization) • 深層モデルの正規化(normalization) • 深層⽣成モデル、GAN、密度⽐推定 • 変分推定、VAE、ADVI • 深層学習フレームワークの実装(Chainer, TensorFlow, etc.) • ベイズ深層学習とその実装(Stan, PyMC, Edward etc.) 53
  54. 54. どこから情報を⼿に⼊れる? 学会 • ICML, NIPS(機械学習全般) • ICLR(深層学習、表現学習) • COLT(理論寄り機械学習) • KDD(データマイニング全般) あるトピックを勉強したければ、各論の 論⽂ではなくチュートリアルからみるの がおすすめ arXiv • stat.ML, stat.TH • cs.LG, cs.NE • math.MP 54 機械学習(辞書的な教科書) • パターン認識と機械学習(PRML) • Machine Learning: A Probabilistic Perspective(MLAPP) 機械学習(授業で使うような教科書) • 東京⼤学⼯学教程 情報⼯学 機械学習 • Corsera(Hinton, Andrew Ng) • 機械学習研究者がHPで公開している授 業資料は適度な分量でおすすめ 深層学習 • 深層学習 (機械学習プロフェッショナル シリーズ) • 深層学習 (監修:⼈⼯知能学会) • http://www.deeplearningbook.org
  55. 55. appendix 55
  56. 56. 層を深くするメリット[Mhaskar+16] • [Mhaskar+16 , Theorem 1] 56 Mhaskar, Hrushikesh, Qianli Liao, and Tomaso Poggio. "Learning functions: When is deep better than shallow." arXiv preprint arXiv:1603.00988 (2016).
  57. 57. 統計多様体と特異モデル NNのアーキテクチャを1つ固定して、そのNNで実現できる確率 分布からなる統計モデルはFisher情報が⾮退化 (パラメータを微⼩に動かしても、表現する確率分布が変化し ない) • 統計多様体が次の条件を満たす時、滑らかという • Fisher情報量が各点で⾮退化 • θ->p(・; θ)が単射 • 統計多様体が滑らかでない時、特異であるという 57
  58. 58. 適応⾃然勾配法 [Amari+00] [Park+00] • Fisher情報量の逆⾏列の計算が重いので、それをオンラインで 推定したものを使う、適応⾃然勾配法という⼿法もある 58 Amari, Shun-Ichi, Hyeyoung Park, and Kenji Fukumizu. "Adaptive method of realizing natural gradient learning for multilayer perceptrons." Neural Computation 12.6 (2000): 1399-1409. Park, Hyeyoung, S-I. Amari, and Kenji Fukumizu. "Adaptive natural gradient learning algorithms for various stochastic models." Neural Networks 13.7 (2000): 755-764.

×