Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
AM
Uploaded by
Ai Makabi
PDF, PPTX
17,785 views
Chapter 02 #ml-professional
2章 順伝播型ネットワーク - 機械学習プロフェッショナルシリーズ輪読会(深層学習編)
Data & Analytics
◦
Read more
22
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 24
2
/ 24
3
/ 24
4
/ 24
5
/ 24
6
/ 24
7
/ 24
8
/ 24
9
/ 24
10
/ 24
11
/ 24
12
/ 24
13
/ 24
14
/ 24
15
/ 24
16
/ 24
17
/ 24
18
/ 24
19
/ 24
20
/ 24
21
/ 24
22
/ 24
23
/ 24
24
/ 24
More Related Content
PDF
Chapter 01 #ml-professional
by
Ai Makabi
PDF
2値分類・多クラス分類
by
t dev
PDF
NINと画像分類
by
t dev
PPTX
順伝搬型ネットワーク_1
by
Terutoshi Arimura
PDF
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
by
Yuta Sugii
PDF
深層学習(講談社)のまとめ(1章~2章)
by
okku apot
PDF
PRML5
by
Hidekazu Oiwa
PDF
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
by
Masayoshi Kondo
Chapter 01 #ml-professional
by
Ai Makabi
2値分類・多クラス分類
by
t dev
NINと画像分類
by
t dev
順伝搬型ネットワーク_1
by
Terutoshi Arimura
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
by
Yuta Sugii
深層学習(講談社)のまとめ(1章~2章)
by
okku apot
PRML5
by
Hidekazu Oiwa
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
by
Masayoshi Kondo
Similar to Chapter 02 #ml-professional
PPTX
PRML Chapter 5
by
Masahito Ohue
PDF
シリーズML-05 ニューラルネットワーク
by
Katsuhiro Morishita
PPTX
Back propagation
by
T2C_
PDF
Deep Learning - Forward Propagation
by
Shinobu Kinjo
PPTX
Deep learning chapter4 ,5
by
ShoKumada
PDF
深層学習 勉強会 第1回資料(作成途中)
by
Shuuji Mihara
PDF
PRML_from5.1to5.3.1
by
禎晃 山崎
PDF
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
by
hirokazutanaka
PPTX
深層学習入門 スライド
by
swamp Sawa
PPTX
卒研発表スライド.pptx
by
ssuser3afcb9
PDF
ゼロから作るDeepLearning 5章 輪読
by
KCS Keio Computer Society
PPTX
深層学習による自然言語処理勉強会2章前半
by
Jiro Nishitoba
DOCX
深層学習 Day1レポート
by
taishimotoda
PPTX
Long short-term memory (LSTM)
by
Kenta Ishii
PDF
20150803.山口大学集中講義
by
Hayaru SHOUNO
PDF
03_深層学習
by
CHIHIROGO
PDF
Deep learning実装の基礎と実践
by
Seiya Tokui
PPTX
深層学習による自然言語処理 第2章 ニューラルネットの基礎
by
Shion Honda
PDF
深層学習レポート Day1 (小川成)
by
ssuser441cb9
PDF
Tokyo webmining統計学部 第2回
by
Issei Kurahashi
PRML Chapter 5
by
Masahito Ohue
シリーズML-05 ニューラルネットワーク
by
Katsuhiro Morishita
Back propagation
by
T2C_
Deep Learning - Forward Propagation
by
Shinobu Kinjo
Deep learning chapter4 ,5
by
ShoKumada
深層学習 勉強会 第1回資料(作成途中)
by
Shuuji Mihara
PRML_from5.1to5.3.1
by
禎晃 山崎
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
by
hirokazutanaka
深層学習入門 スライド
by
swamp Sawa
卒研発表スライド.pptx
by
ssuser3afcb9
ゼロから作るDeepLearning 5章 輪読
by
KCS Keio Computer Society
深層学習による自然言語処理勉強会2章前半
by
Jiro Nishitoba
深層学習 Day1レポート
by
taishimotoda
Long short-term memory (LSTM)
by
Kenta Ishii
20150803.山口大学集中講義
by
Hayaru SHOUNO
03_深層学習
by
CHIHIROGO
Deep learning実装の基礎と実践
by
Seiya Tokui
深層学習による自然言語処理 第2章 ニューラルネットの基礎
by
Shion Honda
深層学習レポート Day1 (小川成)
by
ssuser441cb9
Tokyo webmining統計学部 第2回
by
Issei Kurahashi
More from Ai Makabi
PDF
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
by
Ai Makabi
PDF
Python for Beginners ( #PyLadiesKyoto Meetup )
by
Ai Makabi
PDF
単純ベイズ法による異常検知 #ml-professional
by
Ai Makabi
PDF
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
by
Ai Makabi
PDF
Pyladies tokyo 20150123
by
Ai Makabi
PDF
Pycharm 4への誘い
by
Ai Makabi
PDF
PyLadies Tokyo 立ち上げのお知らせ
by
Ai Makabi
PDF
Juliaのススメ
by
Ai Makabi
PDF
バンディットアルゴリズム勉強会
by
Ai Makabi
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
by
Ai Makabi
Python for Beginners ( #PyLadiesKyoto Meetup )
by
Ai Makabi
単純ベイズ法による異常検知 #ml-professional
by
Ai Makabi
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
by
Ai Makabi
Pyladies tokyo 20150123
by
Ai Makabi
Pycharm 4への誘い
by
Ai Makabi
PyLadies Tokyo 立ち上げのお知らせ
by
Ai Makabi
Juliaのススメ
by
Ai Makabi
バンディットアルゴリズム勉強会
by
Ai Makabi
Chapter 02 #ml-professional
1.
Chapter 2: 順伝播型ネットワーク 機械学習プロフェッショナルシリーズ輪読会 ∼「深層学習」編∼ @a_macbee
2.
最も基本的なニューラルネットワーク 順伝播型 (ニューラル) ネットワーク について学びます
3.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
4.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
5.
順伝播型ネットワーク • 層状に並べたユニット • 隣接層間のみで結合した構造 •
情報が入力側から出力側の一方向にのみ伝播 u z z x1 x2 x3 x4 w:重み (weight) b:バイアス (bias) f:活性化関数
6.
順伝播型ネットワーク • ユニットが層状に並べられ,層間でのみ結合 左の層のユニットの出力が右の層のユニットの入力になる 第1層:i =
1, …, I 第2層:j = 1, …, Ju1 z1 z1 u2 z2 u3 z3 z2 z3 x4 x3 x2 x1
7.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
8.
活性化関数 • 通常,単調増加する非線形関数が用いられる • よく使われるのはロジスティックシグモイド 関数
(logistic sigmoid function) • 双曲線正接関数を使うこともある これらはシグモイド関数 (sigmoid function) と総称される
9.
活性化関数 • 近年は,正規化線形関数 (rectified
linear function) がよく利用される • 単純で計算量が小さい • シグモイド関数よりも学習がより速く進む • 最終的にもよりよい結果が得られる ※8章で改めて説明があるよう
10.
活性化関数 • その他の活性化関数たち • 線形写像・恒等写像 ※部分的に利用されることがある •
ロジスティック関数を区分的に直線で近似
11.
活性化関数 • その他の活性化関数たち • マックスアウト
(maxout) 関数 K個の異なるユニットをまとめたような構造 正規化線形関数よりも高い性能を示す
12.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
13.
多層ネットワーク y1 y2 x1 x1 x1 x1 l&=&1 l&=&2 l&=&3 z(1) z(2) z(3) 入力層 中間層 (隠れ層) 出力層 最終出力をyとおく 各層で異なる 活性化関数 f
を 利用して良い ※一般的に出力層は違う関数が選ばれる
14.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
15.
学習の枠組み • 順伝播型ネットワークの肝はパラメータ w w
を調整することで入出力ペアを再現したい X = {x1, …, xN}:訓練データ (training data) D = {d1, …, dN}:x に対応する望ましい出力 ネットワークの出力がDに近づくように学習 誤差関数 (error function) を最小化する
16.
学習の枠組み 問題の種別 出力層の活性化関数 誤差関数 回帰
恒等写像 二乗誤差 式 (2.6) ※後述 二値分類 ロジスティック関数 式 (2.8) ※後述 多クラス分類 ソフトマックス関数 交差エントロピー 式 (2.11) ※後述 ※具体的な学習方法については3章?
17.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
18.
回帰 (regression) • 出力が連続値の場合 ネットワーク出力層の活性化関数は,値域に応 じて決める •
値域 [-1:1] - 正接双曲線関数 • 値域 任意の実数 - 恒等写像 • 誤差関数には二乗誤差を利用
19.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
20.
二値分類 • 入力 x
に応じて出力を2つに分類する場合 x を指定した際に d=1となる事後確率 p(d=1¦x) をモデル化 出力層にユニットを一つだけもち,その活性化 関数はロジスティック関数
21.
二値分類 • 最尤推定 (maximum
likelihood estimation) で 尤度 (likelihood) を最大にする w を求める • 上記を誤差関数として書き換えると以下の通り (最大化ではなく最小化を考えている)
22.
• 2.1 ユニットの出力 •
2.2 活性化関数 • 2.3 多層ネットワーク • 2.4 出力層の設計と誤差関数 • 2.4.1 学習の枠組み • 2.4.2 回帰 • 2.4.3 二値分類 • 2.4.4 多クラス分類
23.
多クラス分類 • 入力 x
を内容に応じて有限個のクラスに分類 k 個のクラスがあったとき,出力層の k 番目の ユニットの出力はソフトマック関数 (softmax function) で書ける ※各クラスに属する事後確率として表現できる ※確率なので総和は1
24.
多クラス分類 • 目標出力をダミー変数へ • 前回と同じく尤度関数を導出し誤差関数を求め る.この関数は交差エントロピー
(cross entropy) と呼ばれる
Download