Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Coursera "Neural Networks"

207 views

Published on

Courseraで公開されている、Andrew Ng氏の機械学習e-ラーニング講義、4週目"Neural Networks"の内容の要約・個人的な理解内容の紹介です。
これは上記内容をあらかじめ視聴した方向けに作成したものです。また、輪講資料として作成したため、プレゼン単体だとつながりがわかりにくいと思われる点があるかと思います。

Published in: Technology

Coursera "Neural Networks"

  1. 1. coursera e-learning “machine-learning” week4:”Neural Networks”
  2. 2. Agenda 1. Motivations 2. Neural Networks 3. Applications
  3. 3. 1.Motivations: Non-linear Hypotheses
  4. 4. 1.Motivations: Non-linear Hypotheses • What’s This? – 例えば「車」 • 「車」と判断する基準は何ですか? – 色 – 形 – タイヤの数 – …
  5. 5. 1.Motivations: Non-linear Hypotheses • PCだと?(画像認識の例) – 識別できそうな情報:色、座標、…
  6. 6. 1.Motivations: Non-linear Hypotheses • PCだと?(画像認識の例) – 識別できそうな情報:色、座標、… • 要素としてみると非常に多い • 例:50x50pixelの画像 – 50×50=2500pixel分の情報を持つ • RGBなら7500、α入りなら10000 – トレーニングセットとして入力すると…? 普通に二次式で当てはめたりを考えると、非常にコストがかかる
  7. 7. 1.Motivations: Neurons and the Brain
  8. 8. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – 初出:1943 (多分) • Warren S. McCulloch; Walter Pitts (1943). – 古くからある – 当時は再現しきれなかった – コンピュータの性能向上 • 大量のデータを高速で処理できるように thus far Now
  9. 9. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – ノード間の密な高次の結合 – 複雑な問題への適用が可能(非線形分類等) – 並列処理が基本 – コンピュータと好相性 • マルチプロセッサ等 – 入出力は単純 – ハードウェアとしての実装も可能
  10. 10. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – 「脳は最高の学習・認識能力を持つ」 – 「学習システムを作ろう」 • 何を手本とするべきか? – 「目の前にある、最高の学習装置」 – つまり脳
  11. 11. 2.Neural Networks: Model Representation Ⅰ
  12. 12. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークを機械学習に x1 x2 x3 x0 hθ(x) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3 計算 input bias unit output weights input:入力
  13. 13. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークを機械学習に x1 x2 x3 x0 hθ(x) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3 計算 input bias unit output weights bias unit:前提条件
  14. 14. 2.Neural Networks: Model Representation Ⅰ • バイアスは人間にもある – なぜ「車」だと思うのか? • サーキットだし • 走ってる • タイヤついてる • 二輪じゃない • 車の流れだったし • その他もろもろの思い込み モデルにおいても設定するべき
  15. 15. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークは階層的 x1 x2 x3 x0 a2 hθ(x) a0 a1 a3 Layer1 Layer2 Layer3 「3層ニューラルネット」
  16. 16. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークは階層的 • 単純なアルゴリズムだけで複雑な計算を実現 x1 x2 x3 x0 a2 hθ(x) a0 a1 a3 Layer1 Layer2 Layer3 bias unit hidden layer output layer input layer
  17. 17. 2.Neural Networks: Model Representation Ⅰ • 数式で表現してみると… 𝑎1 (2) = 𝑔(𝜃10 1 𝑥0 + 𝜃11 1 𝑥1 + 𝜃12 1 𝑥2 + 𝜃13 (1) 𝑥3) 𝑎2 (2) = 𝑔(𝜃20 1 𝑥0 + 𝜃21 1 𝑥1 + 𝜃22 1 𝑥2 + 𝜃23 (1) 𝑥3) 𝑎3 (2) = 𝑔(𝜃30 1 𝑥0 + 𝜃31 1 𝑥1 + 𝜃32 1 𝑥2 + 𝜃33 (1) 𝑥3) h 𝜃 𝑥 = 𝑎1 (3) = 𝑔(𝜃10 2 𝑎0 (2) + 𝜃11 2 𝑎1 (2) + 𝜃12 2 𝑎2 (2) + 𝜃13 (2) 𝑎3 (2) ) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3
  18. 18. 2.Neural Networks: Model Representation Ⅱ
  19. 19. 2.Neural Networks: Model Representation Ⅱ • より単純に(ベクトル表現) • まとめて 𝑧1 (2) = 𝜃10 1 𝑥0 + 𝜃11 1 𝑥1 + 𝜃12 1 𝑥2 + 𝜃13 (1) 𝑥3 𝑎1 (2) = 𝑔(𝑧1 (2) ) x = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝑧(2) = 𝑧1 2 𝑧2 2 𝑧3 2 𝑧(2) = 𝜃(1) 𝑎(1), 𝑎(2) = 𝑔(𝑧(2)) Add 𝑎0 (2) = 1, 𝑧(3) = 𝜃(2) 𝑎(2) ℎ 𝜃 𝑥 = 𝑎(3) = 𝑔(𝑧(3) ) bias unit追加
  20. 20. 3.Applications: Examples and Intuitions Ⅰ
  21. 21. 3.Applications: Examples and Intuitions Ⅰ • 論理演算 AND – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) x1 x2 hθ 0 0 g(-30) 0 1 g(-10) 1 0 g(-10) 1 1 g(10) -30 +20 +20 ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2)
  22. 22. x1 x2 hθ 0 0 0 0 1 0 1 0 0 1 1 1 3.Applications: Examples and Intuitions Ⅰ • 論理演算 AND – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -30 +20 +20 ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2) AND
  23. 23. x1 x2 hθ 0 0 g(-10) 0 1 g(10) 1 0 g(10) 1 1 g(30) 3.Applications: Examples and Intuitions Ⅰ • 論理演算 OR – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -10 +20 +20 ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2)
  24. 24. x1 x2 hθ 0 0 0 0 1 1 1 0 1 1 1 1 3.Applications: Examples and Intuitions Ⅰ • 論理演算 OR – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -10 +20 +20 ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2) OR
  25. 25. 3.Applications: Examples and Intuitions Ⅱ
  26. 26. 3.Applications: Examples and Intuitions Ⅱ • ここまでの例 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2 AND 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2 OR どちらも線形 = ニューラルネットワークでなくても分類可能 面倒な分類 = 非線形分類への適用を考える
  27. 27. 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2
  28. 28. x1 x2 a1 a2 hθ 0 0 0 1 1 0 1 0 0 0 1 0 0 0 0 1 1 1 0 1 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR +1 x1 x2 a1 hθ(x) -30 +20 +20 a2 10 -20 -20 +1 x1 AND x2 (NOT x1) AND (NOT x2) x1 OR x2 -10 20 20
  29. 29. x1 x2 a1 a2 hθ 0 0 0 1 1 0 1 0 0 0 1 0 0 0 0 1 1 1 0 1 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR +1 x1 x2 a1 hθ(x) -30 +20 +20 a2 10 -20 -20 +1 x1 AND x2 (NOT x1) AND (NOT x2) x1 OR x2 -10 20 20 線形分類の積み重ねで非線形分類が可能に!
  30. 30. 3.Applications: Multiclass Classification
  31. 31. 3.Applications: Multiclass Classification • 多クラス分類に適用するには? One-vs-allを利用
  32. 32. 3.Applications: Multiclass Classification • 4クラス分類の例 +1 x1 x2 input layer layer 2 layer 3 output layer 分類結果を行列表現 ℎ 𝜃 𝑥 ≈ 1 0 0 0 , ℎ 𝜃 𝑥 ≈ 0 1 0 0 , ℎ 𝜃 𝑥 ≈ 0 0 1 0 , ℎ 𝜃 𝑥 ≈ 0 0 0 1

×