SlideShare a Scribd company logo
coursera e-learning
“machine-learning”
week4:”Neural Networks”
Agenda
1. Motivations
2. Neural Networks
3. Applications
1.Motivations:
Non-linear Hypotheses
1.Motivations:
Non-linear Hypotheses
• What’s This?
– 例えば「車」
• 「車」と判断する基準は何ですか?
– 色
– 形
– タイヤの数
– …
1.Motivations:
Non-linear Hypotheses
• PCだと?(画像認識の例)
– 識別できそうな情報:色、座標、…
1.Motivations:
Non-linear Hypotheses
• PCだと?(画像認識の例)
– 識別できそうな情報:色、座標、…
• 要素としてみると非常に多い
• 例:50x50pixelの画像
– 50×50=2500pixel分の情報を持つ
• RGBなら7500、α入りなら10000
– トレーニングセットとして入力すると…?
普通に二次式で当てはめたりを考えると、非常にコストがかかる
1.Motivations:
Neurons and the Brain
1.Motivations:
Neurons and the Brain
• ニューラルネットワーク
– 初出:1943 (多分)
• Warren S. McCulloch; Walter Pitts (1943).
– 古くからある
– 当時は再現しきれなかった
– コンピュータの性能向上
• 大量のデータを高速で処理できるように
thus far
Now
1.Motivations:
Neurons and the Brain
• ニューラルネットワーク
– ノード間の密な高次の結合
– 複雑な問題への適用が可能(非線形分類等)
– 並列処理が基本
– コンピュータと好相性
• マルチプロセッサ等
– 入出力は単純
– ハードウェアとしての実装も可能
1.Motivations:
Neurons and the Brain
• ニューラルネットワーク
– 「脳は最高の学習・認識能力を持つ」
– 「学習システムを作ろう」
• 何を手本とするべきか?
– 「目の前にある、最高の学習装置」
– つまり脳
2.Neural Networks:
Model Representation Ⅰ
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークを機械学習に
x1
x2
x3
x0
hθ(x)
𝑥 =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝜃 =
𝜃0
𝜃1
𝜃2
𝜃3
計算
input
bias unit
output
weights
input:入力
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークを機械学習に
x1
x2
x3
x0
hθ(x)
𝑥 =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝜃 =
𝜃0
𝜃1
𝜃2
𝜃3
計算
input
bias unit
output
weights
bias unit:前提条件
2.Neural Networks:
Model Representation Ⅰ
• バイアスは人間にもある
– なぜ「車」だと思うのか?
• サーキットだし
• 走ってる
• タイヤついてる
• 二輪じゃない
• 車の流れだったし
• その他もろもろの思い込み
モデルにおいても設定するべき
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークは階層的
x1
x2
x3
x0
a2 hθ(x)
a0
a1
a3
Layer1 Layer2 Layer3
「3層ニューラルネット」
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークは階層的
• 単純なアルゴリズムだけで複雑な計算を実現
x1
x2
x3
x0
a2 hθ(x)
a0
a1
a3
Layer1 Layer2 Layer3
bias unit
hidden layer
output layer
input layer
2.Neural Networks:
Model Representation Ⅰ
• 数式で表現してみると…
𝑎1
(2)
= 𝑔(𝜃10
1
𝑥0 + 𝜃11
1
𝑥1 + 𝜃12
1
𝑥2 + 𝜃13
(1)
𝑥3)
𝑎2
(2)
= 𝑔(𝜃20
1
𝑥0 + 𝜃21
1
𝑥1 + 𝜃22
1
𝑥2 + 𝜃23
(1)
𝑥3)
𝑎3
(2)
= 𝑔(𝜃30
1
𝑥0 + 𝜃31
1
𝑥1 + 𝜃32
1
𝑥2 + 𝜃33
(1)
𝑥3)
h 𝜃 𝑥 = 𝑎1
(3)
= 𝑔(𝜃10
2
𝑎0
(2)
+ 𝜃11
2
𝑎1
(2)
+ 𝜃12
2
𝑎2
(2)
+ 𝜃13
(2)
𝑎3
(2)
)
𝑥 =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝜃 =
𝜃0
𝜃1
𝜃2
𝜃3
2.Neural Networks:
Model Representation Ⅱ
2.Neural Networks:
Model Representation Ⅱ
• より単純に(ベクトル表現)
• まとめて
𝑧1
(2)
= 𝜃10
1
𝑥0 + 𝜃11
1
𝑥1 + 𝜃12
1
𝑥2 + 𝜃13
(1)
𝑥3
𝑎1
(2)
= 𝑔(𝑧1
(2)
)
x =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝑧(2)
=
𝑧1
2
𝑧2
2
𝑧3
2
𝑧(2) = 𝜃(1) 𝑎(1), 𝑎(2) = 𝑔(𝑧(2))
Add 𝑎0
(2)
= 1, 𝑧(3) = 𝜃(2) 𝑎(2)
ℎ 𝜃 𝑥 = 𝑎(3)
= 𝑔(𝑧(3)
)
bias unit追加
3.Applications:
Examples and Intuitions Ⅰ
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 AND
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
x1 x2 hθ
0 0 g(-30)
0 1 g(-10)
1 0 g(-10)
1 1 g(10)
-30
+20
+20
ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2)
x1 x2 hθ
0 0 0
0 1 0
1 0 0
1 1 1
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 AND
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
-30
+20
+20
ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2)
AND
x1 x2 hθ
0 0 g(-10)
0 1 g(10)
1 0 g(10)
1 1 g(30)
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 OR
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
-10
+20
+20
ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2)
x1 x2 hθ
0 0 0
0 1 1
1 0 1
1 1 1
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 OR
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
-10
+20
+20
ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2)
OR
3.Applications:
Examples and Intuitions Ⅱ
3.Applications:
Examples and Intuitions Ⅱ
• ここまでの例
0
0.2
0.4
0.6
0.8
1
1.2
0 0.2 0.4 0.6 0.8 1 1.2
AND
0
0.2
0.4
0.6
0.8
1
1.2
0 0.2 0.4 0.6 0.8 1 1.2
OR
どちらも線形 = ニューラルネットワークでなくても分類可能
面倒な分類 = 非線形分類への適用を考える
3.Applications:
Examples and Intuitions Ⅱ
• 非線形分類への適用-XNOR
0
0.2
0.4
0.6
0.8
1
1.2
0 0.2 0.4 0.6 0.8 1 1.2
x1 x2 a1 a2 hθ
0 0 0 1 1
0 1 0 0 0
1 0 0 0 0
1 1 1 0 1
3.Applications:
Examples and Intuitions Ⅱ
• 非線形分類への適用-XNOR
+1
x1
x2
a1
hθ(x)
-30
+20
+20
a2
10
-20
-20
+1 x1 AND x2
(NOT x1) AND (NOT x2)
x1 OR x2
-10
20
20
x1 x2 a1 a2 hθ
0 0 0 1 1
0 1 0 0 0
1 0 0 0 0
1 1 1 0 1
3.Applications:
Examples and Intuitions Ⅱ
• 非線形分類への適用-XNOR
+1
x1
x2
a1
hθ(x)
-30
+20
+20
a2
10
-20
-20
+1 x1 AND x2
(NOT x1) AND (NOT x2)
x1 OR x2
-10
20
20
線形分類の積み重ねで非線形分類が可能に!
3.Applications:
Multiclass Classification
3.Applications:
Multiclass Classification
• 多クラス分類に適用するには?
One-vs-allを利用
3.Applications:
Multiclass Classification
• 4クラス分類の例
+1
x1
x2
input layer layer 2 layer 3 output layer
分類結果を行列表現
ℎ 𝜃 𝑥 ≈
1
0
0
0
, ℎ 𝜃 𝑥 ≈
0
1
0
0
,
ℎ 𝜃 𝑥 ≈
0
0
1
0
, ℎ 𝜃 𝑥 ≈
0
0
0
1

More Related Content

What's hot

競技プログラミングの楽しみ
競技プログラミングの楽しみ競技プログラミングの楽しみ
競技プログラミングの楽しみ
na_o_ys
 
コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析
yamahige
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレスト
Kinki University
 
abc031
abc031abc031
abc031
AtCoder Inc.
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
Hirotaka Hachiya
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
 
Rustで始める競技プログラミング
Rustで始める競技プログラミングRustで始める競技プログラミング
Rustで始める競技プログラミング
Naoya Okanami
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
Hirotaka Hachiya
 
それっぽく感じる機械学習
それっぽく感じる機械学習それっぽく感じる機械学習
それっぽく感じる機械学習
Yuki Igarashi
 
テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築
rikos3
 
AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説
AtCoder Inc.
 
離散構造と離散分布
離散構造と離散分布離散構造と離散分布
離散構造と離散分布
Masakazu Ishihata
 
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Shunya Ueta
 
Ishihata 150319-final
Ishihata 150319-finalIshihata 150319-final
Ishihata 150319-final
Masakazu Ishihata
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Shuyo Nakatani
 

What's hot (20)

競技プログラミングの楽しみ
競技プログラミングの楽しみ競技プログラミングの楽しみ
競技プログラミングの楽しみ
 
コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレスト
 
計算量
計算量計算量
計算量
 
abc031
abc031abc031
abc031
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
Gurobi python
Gurobi pythonGurobi python
Gurobi python
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
Rustで始める競技プログラミング
Rustで始める競技プログラミングRustで始める競技プログラミング
Rustで始める競技プログラミング
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
 
それっぽく感じる機械学習
それっぽく感じる機械学習それっぽく感じる機械学習
それっぽく感じる機械学習
 
テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築
 
AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説
 
離散構造と離散分布
離散構造と離散分布離散構造と離散分布
離散構造と離散分布
 
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
 
Ishihata 150319-final
Ishihata 150319-finalIshihata 150319-final
Ishihata 150319-final
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
マーク付き点過程
マーク付き点過程マーク付き点過程
マーク付き点過程
 

Viewers also liked

Heroku meetup#15 lt
Heroku meetup#15 ltHeroku meetup#15 lt
Heroku meetup#15 lt
Kikuya Takumi
 
Coursera machine learning week6
Coursera machine learning week6Coursera machine learning week6
Coursera machine learning week6
Kikuya Takumi
 
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Yuta Koga
 
Coursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector MachinesCoursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector Machines
TIS株式会社
 
ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例
Yuta Koga
 
Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ 
Yuta Koga
 
基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後
Keigo Suda
 

Viewers also liked (7)

Heroku meetup#15 lt
Heroku meetup#15 ltHeroku meetup#15 lt
Heroku meetup#15 lt
 
Coursera machine learning week6
Coursera machine learning week6Coursera machine learning week6
Coursera machine learning week6
 
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
 
Coursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector MachinesCoursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector Machines
 
ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例
 
Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ 
 
基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後
 

Similar to Coursera "Neural Networks"

Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
2023_freshman
2023_freshman2023_freshman
2023_freshman
TakaakiYonekura
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門
Hayato Maki
 
20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事
Shunsuke Nakamura
 
Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)
Cryolite
 
Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)
Cryolite
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
Toshiki NOGUCHI
 
ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料
Yoshihiro Ochi
 
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編
Etsuji Nakai
 
実世界に埋め込まれる深層学習
実世界に埋め込まれる深層学習 実世界に埋め込まれる深層学習
実世界に埋め込まれる深層学習
Deep Learning Lab(ディープラーニング・ラボ)
 
九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎
RyomaBise1
 
programming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithmprogramming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithm
Hiro Yoshioka
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
 
The Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search EngineThe Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search Engine
sleepy_yoshi
 
関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ
Hiro H.
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンJubatusOfficial
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンYuya Unno
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
Yoshihiro Mizoguchi
 

Similar to Coursera "Neural Networks" (20)

Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
2023_freshman
2023_freshman2023_freshman
2023_freshman
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門
 
実践データ分析基礎
実践データ分析基礎実践データ分析基礎
実践データ分析基礎
 
20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事
 
Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)
 
Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)
 
NIPS 2010 読む会
NIPS 2010 読む会NIPS 2010 読む会
NIPS 2010 読む会
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
 
ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料
 
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編
 
実世界に埋め込まれる深層学習
実世界に埋め込まれる深層学習 実世界に埋め込まれる深層学習
実世界に埋め込まれる深層学習
 
九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎
 
programming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithmprogramming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithm
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
 
The Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search EngineThe Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search Engine
 
関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
 

Recently uploaded

なぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDD
なぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDDなぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDD
なぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDD
ssuserfcafd1
 
無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.
無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.
無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.
Yuki Miyazaki
 
Kotest を使って 快適にテストを書こう - KotlinFest 2024
Kotest を使って 快適にテストを書こう - KotlinFest 2024Kotest を使って 快適にテストを書こう - KotlinFest 2024
Kotest を使って 快適にテストを書こう - KotlinFest 2024
Hirotaka Kawata
 
【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf
【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf
【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf
ARISE analytics
 
20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro
20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro
20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro
Seiya Shimabukuro
 
生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI
生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI
生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI
Osaka University
 
ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT vol112 発表資料)
ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT  vol112 発表資料)ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT  vol112 発表資料)
ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT vol112 発表資料)
Takuya Minagawa
 
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識
sugiuralab
 
協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...
協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...
協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...
Osaka University
 
Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。
Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。
Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。
iPride Co., Ltd.
 
実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日
実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日
実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日
Hideo Kashioka
 
気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす
気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす
気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす
Shinichi Hirauchi
 
iMacwoSu_Gong_de_barabaranishitaHua_.pptx
iMacwoSu_Gong_de_barabaranishitaHua_.pptxiMacwoSu_Gong_de_barabaranishitaHua_.pptx
iMacwoSu_Gong_de_barabaranishitaHua_.pptx
kitamisetagayaxxx
 

Recently uploaded (13)

なぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDD
なぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDDなぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDD
なぜそのDDDは効果が薄いのか?名ばかりDX案件での経験を踏まえて培った他の思考を交えた現代風?のDDD
 
無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.
無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.
無形価値を守り育てる社会における「デー タ」の責務について - Atlas, Inc.
 
Kotest を使って 快適にテストを書こう - KotlinFest 2024
Kotest を使って 快適にテストを書こう - KotlinFest 2024Kotest を使って 快適にテストを書こう - KotlinFest 2024
Kotest を使って 快適にテストを書こう - KotlinFest 2024
 
【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf
【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf
【JSAI2024】LLMエージェントの人間との対話における反芻的返答の親近感向上効果_v1.1.pdf
 
20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro
20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro
20240621_AI事業者ガイドライン_セキュリティパートの紹介_SeiyaShimabukuro
 
生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI
生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI
生成AIの実利用に必要なこと-Practical Requirements for the Deployment of Generative AI
 
ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT vol112 発表資料)
ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT  vol112 発表資料)ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT  vol112 発表資料)
ろくに電子工作もしたことない人間がIoT用ミドルウェアを作った話(IoTLT vol112 発表資料)
 
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識
ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査と IMUセンサによる耳タッチジェスチャの認識
 
協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...
協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...
協働AIがもたらす業務効率革命 -日本企業が押さえるべきポイント-Collaborative AI Revolutionizing Busines...
 
Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。
Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。
Microsoft Azureで生成AIを使ってみた話 2024/6/14の勉強会で発表されたものです。
 
実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日
実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日
実体験に基づく、成功するスクラム vs 失敗するスクラム 何が違う? 2024年6月22日
 
気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす
気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす
気ままなLLMをAgents for Amazon Bedrockでちょっとだけ飼いならす
 
iMacwoSu_Gong_de_barabaranishitaHua_.pptx
iMacwoSu_Gong_de_barabaranishitaHua_.pptxiMacwoSu_Gong_de_barabaranishitaHua_.pptx
iMacwoSu_Gong_de_barabaranishitaHua_.pptx
 

Coursera "Neural Networks"

  • 2. Agenda 1. Motivations 2. Neural Networks 3. Applications
  • 4. 1.Motivations: Non-linear Hypotheses • What’s This? – 例えば「車」 • 「車」と判断する基準は何ですか? – 色 – 形 – タイヤの数 – …
  • 6. 1.Motivations: Non-linear Hypotheses • PCだと?(画像認識の例) – 識別できそうな情報:色、座標、… • 要素としてみると非常に多い • 例:50x50pixelの画像 – 50×50=2500pixel分の情報を持つ • RGBなら7500、α入りなら10000 – トレーニングセットとして入力すると…? 普通に二次式で当てはめたりを考えると、非常にコストがかかる
  • 8. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – 初出:1943 (多分) • Warren S. McCulloch; Walter Pitts (1943). – 古くからある – 当時は再現しきれなかった – コンピュータの性能向上 • 大量のデータを高速で処理できるように thus far Now
  • 9. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – ノード間の密な高次の結合 – 複雑な問題への適用が可能(非線形分類等) – 並列処理が基本 – コンピュータと好相性 • マルチプロセッサ等 – 入出力は単純 – ハードウェアとしての実装も可能
  • 10. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – 「脳は最高の学習・認識能力を持つ」 – 「学習システムを作ろう」 • 何を手本とするべきか? – 「目の前にある、最高の学習装置」 – つまり脳
  • 12. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークを機械学習に x1 x2 x3 x0 hθ(x) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3 計算 input bias unit output weights input:入力
  • 13. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークを機械学習に x1 x2 x3 x0 hθ(x) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3 計算 input bias unit output weights bias unit:前提条件
  • 14. 2.Neural Networks: Model Representation Ⅰ • バイアスは人間にもある – なぜ「車」だと思うのか? • サーキットだし • 走ってる • タイヤついてる • 二輪じゃない • 車の流れだったし • その他もろもろの思い込み モデルにおいても設定するべき
  • 15. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークは階層的 x1 x2 x3 x0 a2 hθ(x) a0 a1 a3 Layer1 Layer2 Layer3 「3層ニューラルネット」
  • 16. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークは階層的 • 単純なアルゴリズムだけで複雑な計算を実現 x1 x2 x3 x0 a2 hθ(x) a0 a1 a3 Layer1 Layer2 Layer3 bias unit hidden layer output layer input layer
  • 17. 2.Neural Networks: Model Representation Ⅰ • 数式で表現してみると… 𝑎1 (2) = 𝑔(𝜃10 1 𝑥0 + 𝜃11 1 𝑥1 + 𝜃12 1 𝑥2 + 𝜃13 (1) 𝑥3) 𝑎2 (2) = 𝑔(𝜃20 1 𝑥0 + 𝜃21 1 𝑥1 + 𝜃22 1 𝑥2 + 𝜃23 (1) 𝑥3) 𝑎3 (2) = 𝑔(𝜃30 1 𝑥0 + 𝜃31 1 𝑥1 + 𝜃32 1 𝑥2 + 𝜃33 (1) 𝑥3) h 𝜃 𝑥 = 𝑎1 (3) = 𝑔(𝜃10 2 𝑎0 (2) + 𝜃11 2 𝑎1 (2) + 𝜃12 2 𝑎2 (2) + 𝜃13 (2) 𝑎3 (2) ) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3
  • 19. 2.Neural Networks: Model Representation Ⅱ • より単純に(ベクトル表現) • まとめて 𝑧1 (2) = 𝜃10 1 𝑥0 + 𝜃11 1 𝑥1 + 𝜃12 1 𝑥2 + 𝜃13 (1) 𝑥3 𝑎1 (2) = 𝑔(𝑧1 (2) ) x = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝑧(2) = 𝑧1 2 𝑧2 2 𝑧3 2 𝑧(2) = 𝜃(1) 𝑎(1), 𝑎(2) = 𝑔(𝑧(2)) Add 𝑎0 (2) = 1, 𝑧(3) = 𝜃(2) 𝑎(2) ℎ 𝜃 𝑥 = 𝑎(3) = 𝑔(𝑧(3) ) bias unit追加
  • 21. 3.Applications: Examples and Intuitions Ⅰ • 論理演算 AND – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) x1 x2 hθ 0 0 g(-30) 0 1 g(-10) 1 0 g(-10) 1 1 g(10) -30 +20 +20 ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2)
  • 22. x1 x2 hθ 0 0 0 0 1 0 1 0 0 1 1 1 3.Applications: Examples and Intuitions Ⅰ • 論理演算 AND – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -30 +20 +20 ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2) AND
  • 23. x1 x2 hθ 0 0 g(-10) 0 1 g(10) 1 0 g(10) 1 1 g(30) 3.Applications: Examples and Intuitions Ⅰ • 論理演算 OR – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -10 +20 +20 ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2)
  • 24. x1 x2 hθ 0 0 0 0 1 1 1 0 1 1 1 1 3.Applications: Examples and Intuitions Ⅰ • 論理演算 OR – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -10 +20 +20 ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2) OR
  • 26. 3.Applications: Examples and Intuitions Ⅱ • ここまでの例 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2 AND 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2 OR どちらも線形 = ニューラルネットワークでなくても分類可能 面倒な分類 = 非線形分類への適用を考える
  • 27. 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2
  • 28. x1 x2 a1 a2 hθ 0 0 0 1 1 0 1 0 0 0 1 0 0 0 0 1 1 1 0 1 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR +1 x1 x2 a1 hθ(x) -30 +20 +20 a2 10 -20 -20 +1 x1 AND x2 (NOT x1) AND (NOT x2) x1 OR x2 -10 20 20
  • 29. x1 x2 a1 a2 hθ 0 0 0 1 1 0 1 0 0 0 1 0 0 0 0 1 1 1 0 1 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR +1 x1 x2 a1 hθ(x) -30 +20 +20 a2 10 -20 -20 +1 x1 AND x2 (NOT x1) AND (NOT x2) x1 OR x2 -10 20 20 線形分類の積み重ねで非線形分類が可能に!
  • 32. 3.Applications: Multiclass Classification • 4クラス分類の例 +1 x1 x2 input layer layer 2 layer 3 output layer 分類結果を行列表現 ℎ 𝜃 𝑥 ≈ 1 0 0 0 , ℎ 𝜃 𝑥 ≈ 0 1 0 0 , ℎ 𝜃 𝑥 ≈ 0 0 1 0 , ℎ 𝜃 𝑥 ≈ 0 0 0 1