Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
YT
Uploaded by
Yuta Tomomatsu
371 views
Reggression①
2016/07/17のWSLの勉強会の資料。 線形回帰についての説明。 単回帰,重回帰,線形回帰モデル,多重共線性,過学習
Data & Analytics
◦
Related topics:
Linear Regression
•
Read more
0
Save
Share
Embed
Embed presentation
Download
Download to read offline
1
/ 54
2
/ 54
3
/ 54
4
/ 54
5
/ 54
6
/ 54
7
/ 54
8
/ 54
9
/ 54
10
/ 54
11
/ 54
12
/ 54
13
/ 54
14
/ 54
15
/ 54
16
/ 54
17
/ 54
18
/ 54
19
/ 54
20
/ 54
21
/ 54
22
/ 54
23
/ 54
24
/ 54
25
/ 54
26
/ 54
27
/ 54
28
/ 54
29
/ 54
30
/ 54
31
/ 54
32
/ 54
33
/ 54
34
/ 54
35
/ 54
36
/ 54
37
/ 54
38
/ 54
39
/ 54
40
/ 54
41
/ 54
42
/ 54
43
/ 54
44
/ 54
45
/ 54
46
/ 54
47
/ 54
48
/ 54
49
/ 54
50
/ 54
51
/ 54
52
/ 54
53
/ 54
54
/ 54
More Related Content
ODP
Multiple linear regression
by
James Neill
PPTX
4.10.2 write models with calc reg
by
Northside ISD
PPT
Linear Regression
by
ktini
PPTX
Trip Generation Study of Drive-through Coffee Outlets
by
JumpingJaq
PDF
Determining trip generation of commercial land use of kaptai
by
Kazi Mahfuzur Rahman
PPTX
Modelling car trip generation in the developing world the tale of two cities
by
Institute for Transport Studies (ITS)
PPT
04 transport modelling
by
Universiti Kebangsaan Malaysia
PPTX
TRIP GENERATION Survey and ORIGIN / DESTINATION STUDY
by
Grant Johnson, PE
Multiple linear regression
by
James Neill
4.10.2 write models with calc reg
by
Northside ISD
Linear Regression
by
ktini
Trip Generation Study of Drive-through Coffee Outlets
by
JumpingJaq
Determining trip generation of commercial land use of kaptai
by
Kazi Mahfuzur Rahman
Modelling car trip generation in the developing world the tale of two cities
by
Institute for Transport Studies (ITS)
04 transport modelling
by
Universiti Kebangsaan Malaysia
TRIP GENERATION Survey and ORIGIN / DESTINATION STUDY
by
Grant Johnson, PE
Similar to Reggression①
PPTX
統計的学習の基礎_3章
by
Shoichi Taguchi
PDF
C06
by
anonymousouj
PDF
回帰
by
Shin Asakawa
PDF
20140514_水曜セミナー発表資料_中村知繁
by
Tomoshige Nakamura
PPTX
一般線形モデル
by
MatsuiRyo
PDF
カステラ本勉強会 第三回
by
ke beck
PDF
データ解析6 重回帰分析
by
Hirotaka Hachiya
PDF
2014年5月14日_水曜セミナー発表内容_FINAL
by
Tomoshige Nakamura
PDF
Regression and decision-tree
by
shuya96
PDF
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
by
hirokazutanaka
PDF
Tokyo r12 - R言語による回帰分析入門
by
Yohei Sato
PDF
20140512_水曜セミナードラフトv1
by
Tomoshige Nakamura
DOCX
Rのoptim関数でロバスト回帰(LMSとLAV)
by
wada, kazumi
PDF
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
by
Takeshi Sakaki
PDF
正則化つき線形モデル(「入門機械学習第6章」より)
by
Eric Sartre
PPTX
第2回DARM勉強会
by
Yoshitake Takebayashi
PDF
統計的学習の基礎 3章後半
by
Kazunori Miyanishi
PDF
カステラ本勉強会 第三回 補足
by
ke beck
PDF
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
PDF
第6回スキル養成講座 講義スライド
by
keiodig
統計的学習の基礎_3章
by
Shoichi Taguchi
C06
by
anonymousouj
回帰
by
Shin Asakawa
20140514_水曜セミナー発表資料_中村知繁
by
Tomoshige Nakamura
一般線形モデル
by
MatsuiRyo
カステラ本勉強会 第三回
by
ke beck
データ解析6 重回帰分析
by
Hirotaka Hachiya
2014年5月14日_水曜セミナー発表内容_FINAL
by
Tomoshige Nakamura
Regression and decision-tree
by
shuya96
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
by
hirokazutanaka
Tokyo r12 - R言語による回帰分析入門
by
Yohei Sato
20140512_水曜セミナードラフトv1
by
Tomoshige Nakamura
Rのoptim関数でロバスト回帰(LMSとLAV)
by
wada, kazumi
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
by
Takeshi Sakaki
正則化つき線形モデル(「入門機械学習第6章」より)
by
Eric Sartre
第2回DARM勉強会
by
Yoshitake Takebayashi
統計的学習の基礎 3章後半
by
Kazunori Miyanishi
カステラ本勉強会 第三回 補足
by
ke beck
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
第6回スキル養成講座 講義スライド
by
keiodig
Reggression①
1.
Regression(回帰) WSL 勉強会 2016/07/17(⽇) 友松祐太 2016/7/17 1
2.
はじめに • 本スライドは本・ネットの資料を参考に作成した資料です。資 料内に誤りがあるかもしれません。。(指摘をお願いします。) 2016/7/17 2
3.
もくじ • 1. Introduction •
2. Simple Linear Regression(単回帰) • 3. Multiple Linear Regression(重回帰) • 4. Linear Regression Model(線形回帰モデル) • 5. Curve Fitting(曲線フィッティング) • 6. Conclusion 2016/7/17 3
4.
1. Introduction 2016/7/17 4
5.
回帰とは • 変数間の関係を関数で表すことを回帰(Regression)という。 • 本⽇のお話は全て線形回帰に関するお話です 2016/7/17
5
6.
回帰事例 • ある農家で肥料をどれくらい与えればどれくらいの収量が得ら れるかを知りたい。 • 1年間で1つのサンプルしかとることが出来ない •
⇒回帰で求めよう!! 2016/7/17 6
7.
単回帰 X 施肥料 (ポンド/エーカー) Y 収量 (ブッシェル/エーカー) 100 40 200 50 300
50 400 70 500 65 600 65 700 80 2016/7/17 7 0 10 20 30 40 50 60 70 80 90 0 100 200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー)
8.
単回帰 X 施肥料 (ポンド/エーカー) Y 収量 (ブッシェル/エーカー) 100 40 200 50 300
50 400 70 500 65 600 65 700 80 2016/7/17 8 0 10 20 30 40 50 60 70 80 90 0 100 200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー) パターン⾒え てきたよ!!
9.
単回帰 X 施肥料 (ポンド/エーカー) Y 収量 (ブッシェル/エーカー) 100 40 200 50 300
50 400 70 500 65 600 65 700 80 2016/7/17 9 0 10 20 30 40 50 60 70 80 90 0 100 200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー) パターン⾒え てきたよ!! 直線が引け そうだよ
10.
単回帰 X 施肥料 (ポンド/エーカー) Y 収量 (ブッシェル/エーカー) 100 40 200 50 300
50 400 70 500 65 600 65 700 80 2016/7/17 10 0 10 20 30 40 50 60 70 80 90 0 100 200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー)
11.
2. Simple Regression
Model (単回帰) 2016/7/17 11
12.
単回帰 • 説明変数1つで⽬的変数を表す。 𝑦" =
𝑏% + 𝑏' 𝑥 という式で⽬的変数を説明するような回帰。 2016/7/17 12
13.
単回帰 2016/7/17 13 0 10 20 30 40 50 60 70 80 90 0 100
200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー)
14.
単回帰 2016/7/17 14 0 10 20 30 40 50 60 70 80 90 0 100
200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー) 最終的に求めたい直線を 𝑦" = 𝑏% + 𝑏' 𝑥 とおく。 𝑦" = 𝑏% + 𝑏' 𝑥
15.
単回帰 2016/7/17 15 0 10 20 30 40 50 60 70 80 90 0 100
200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー) この点((𝑥*, 𝑦*)とする。) に注⽬する 𝑦" = 𝑏% + 𝑏' 𝑥
16.
単回帰 2016/7/17 16 0 10 20 30 40 50 60 70 80 90 0 100
200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー) 観測点𝑥*に対する残差𝑒* という。 𝑦" = 𝑏% + 𝑏' 𝑥
17.
単回帰 2016/7/17 17 0 10 20 30 40 50 60 70 80 90 0 100
200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー) するとこの点は 𝑦* = 𝑦" + 𝑒* = (𝑏% + 𝑏' 𝑥*) + 𝑒* と書くことができる。 𝑦" = 𝑏% + 𝑏' 𝑥
18.
単回帰 2016/7/17 18 0 10 20 30 40 50 60 70 80 90 0 100
200 300 400 500 600 700 800 収量()プッシェル/エーカー 施肥料(ポンド/エーカー) 𝑦" = 𝑏% + 𝑏' 𝑥 それぞれの点で残差が求まる。 この残差ができるだけ少なくな るような直線が引ければよい!
19.
単回帰 • 𝑦" =
𝑏% + 𝑏' 𝑥…この直線を求めたい • 𝑦* = (𝑏% + 𝑏' 𝑥*) + 𝑒*…各観測点における基準変数と予測変数の関係 • 𝑒* = 𝑦* − (𝑏% + 𝑏' 𝑥*)←この残差の2乗和を最⼩にする 最⼩⼆乗法!!! 2016/7/17 19
20.
単回帰 𝑄 𝑏%, 𝑏'
= 1 𝑒* 2 3 *4' = 1 𝑦* − 𝑦*5 2 3 *4' = 1{𝑦* − (𝑏% + 𝑏' 𝑥*)}2 3 *4' この𝑄 𝑏%, 𝑏' を𝑏%, 𝑏'に関してそれぞれ偏微分して=0となる連⽴⽅程式を解 くことで𝑏%, 𝑏'⼀意に定まる。 𝜕 𝜕𝑏% 𝑄 𝑏%, 𝑏' = 0 𝜕 𝜕𝑏' 𝑄 𝑏%, 𝑏' = 0 2016/7/17 20
21.
単回帰 𝜕 𝜕𝑏% 𝑄 𝑏%, 𝑏'
= 𝜕 𝜕𝑏% 1{𝑦* − (𝑏% + 𝑏' 𝑥*)}2 3 *4' = 1(−2){𝑦*−(𝑏% + 𝑏' 𝑥*)} 3 *4' = 0 ⟺ 1 𝑦* 3 *4' − 1 𝑏% 3 *4' − 1 𝑏' 𝑥* 3 *4' = 0 ⟺ 𝑛𝑏% = 1 𝑦* 3 *4' − 𝑏' 1 𝑥* 3 *4' ⟺ 𝑏% = ∑ 𝑦* 3 *4' 𝑛 − 𝑏' ∑ 𝑥* 3 *4' 𝑛 ∴ 𝑏% = 𝑦? − 𝑏' 𝑥̅ 2016/7/17 21
22.
単回帰 𝜕 𝜕𝑏' 𝑄 𝑏%, 𝑏'
= 1(−2𝑥*){𝑦* − (𝑏% + 𝑏' 𝑥*)} 3 *4' = 0 𝑏% = 𝑦? − 𝑏' 𝑥̅より ⟺ 1 𝑥* 𝑦* − 𝑦? − 𝑏' 𝑥̅ + 𝑏' 𝑥* 3 *4' = 0 ⟺ 1 𝑥* 𝑦* − 𝑦? − 𝑏' 𝑥* − 𝑥̅ 3 *4' = 0 ⟺ 𝑏' = ∑ 𝑥* 𝑦* − 𝑦?3 *4' ∑ 𝑥* 𝑥* − 𝑥̅3 *4' ⟺ 𝑏' = ∑ (𝑥* 𝑦* − 𝑥* 𝑦?)3 *4' ∑ (𝑥* 2 − 𝑥* 𝑥̅)3 *4' 2016/7/17 22
23.
単回帰 ⟺ 𝑏' = ∑
𝑥* 𝑦* 3 *4' − 𝑦?∑ 𝑥* 3 *4' ∑ 𝑥* 2 − 𝑥̅ ∑ 𝑥3 *4' * 3 *4' ⟺ 𝑏' = ∑ 𝑥* 𝑦* 3 *4' − 𝑛𝑥̅ 𝑦? ∑ 𝑥* 2 − 𝑛𝑥̅23 *4' ⟺ 𝑏' = 1 𝑛 ∑ 𝑥* 𝑦* 3 *4' − 𝑥̅ 𝑦? 1 𝑛 ∑ 𝑥* 2 − 𝑥̅23 *4' ∴ 𝑏1 = 𝑠CD 𝑠C 2 , 𝑏% = 𝑦? − 𝑏' 𝑥̅より 𝑏% = 𝑦? − 𝑠CD 𝑠C 2 𝑥̅ 2016/7/17 23
24.
3. Multiple Linear
Regression (重回帰) 2016/7/17 24
25.
重回帰(説明変数2つの場合) • 2つ以上の(独⽴な)説明変数で⽬的変数を説明するような回帰 • 説明変数が2つの時… Y*
= 𝛽% + 𝛽' 𝑥'* + 𝛽2 𝑥2* + 𝐸* 2016/7/17 25
26.
重回帰(説明変数2つの場合)-最⼩⼆乗法 𝑄 𝑏%, 𝑏',
𝑏2 = 1 𝑒* 2 3 *4' = 1 𝑦* − 𝑏% + 𝑏' 𝑥'* + 𝑏2 𝑥2* 2 3 *4' これを, 𝑏%, 𝑏', 𝑏2で偏微分して、=0を取ると𝑏%, 𝑏', 𝑏2が⼀意に定まる。 𝑏' = 𝑟D' − 𝑟D2 𝑟2' 1 − 𝑟2' 2 𝑠D 𝑠C' 𝑏2 = 𝑟D2 − 𝑟D' 𝑟2' 1 − 𝑟2' 2 𝑠D 𝑠C2 𝑏I = 𝑦? − 𝑏' 𝑥' − 𝑏2 𝑥2 2016/7/17 26
27.
重回帰(⼀般化) 𝒀 = 𝑌' 𝑌2 ⋮ 𝑌3 , 𝑿
= 1 𝑥'' 1 𝑥2' ⋯ ⋯ 𝑥'O 𝑥2O ⋮ ⋮ ⋱ ⋮ 1 𝑥3' ⋯ 𝑥3O , 𝜷 = 𝛽% 𝛽' ⋮ 𝛽O , 𝑬 = 𝐸' 𝐸2 ⋮ 𝐸3 𝒀 = 𝑿𝜷 + 𝑬 𝒆 = 𝒚 − 𝑿𝒃←これを最⼩⼆乗法で𝑏を求めると… 2016/7/17 27 𝒃 = 𝑿V 𝑿 W' 𝑿V 𝒚 ⼀意に定まる!
28.
多重共線性 • 重回帰を⾏うときに、モデル内の説明変数の⼀部が⼀部の説明 変数と相関関係があるとき、回帰係数が増加して不安定になる。 ⇒多重共線性という • 重回帰⾏う際の説明変数は独⽴であるという仮定がある。 •
説明変数は独⽴変数ともいい、⽬的変数はそれらの独⽴変数に よって⽬的変数が説明されるので従属変数ともいう。 2016/7/17 28
29.
4. Linear Regression
Model (線形回帰モデル) 2016/7/17 29
30.
線形回帰モデル • これまでずっと線形回帰の話をしてきました。 ここで問題! 2016/7/17 30
31.
線形回帰モデル 2016/7/17 31
32.
線形回帰モデル 2016/7/17 32 𝑦 =
𝑏% + 𝑏' 𝑥 + 𝑏2 𝑥2 で回帰できそう!!
33.
線形回帰モデル 2016/7/17 33 𝑦 =
𝑏% + 𝑏' 𝑥 + 𝑏2 𝑥2 で回帰できそう!! これは 線形回帰? ⾮線形回帰?
34.
線形回帰モデル 2016/7/17 34 𝑦 =
𝑏% + 𝑏' 𝑥 + 𝑏2 𝑥2 で回帰できそう!! これは 線形回帰?線形回帰である!
35.
線形回帰モデル • 2変数の重回帰を思い出してみると… 𝑦 =
𝑏% + 𝑏' 𝑥' + 𝑏2 𝑥2 となる。 この式の𝑥'を𝑥2 に, 𝑥2を𝑥とすると、 𝑦 = 𝑏% + 𝑏' 𝑥 + 𝑏2 𝑥2 よって、これは線形回帰である。 2016/7/17 35
36.
線形回帰モデル • 2変数の重回帰を思い出してみると… 𝑦 =
𝑏% + 𝑏' 𝑥' + 𝑏2 𝑥2 となる。 この式の𝑥'を𝑥2 に, 𝑥2を𝑥とすると、 𝑦 = 𝑏% + 𝑏' 𝑥 + 𝑏2 𝑥2 よって、これは線形回帰である。 2016/7/17 36 ?
37.
線形回帰⼀般化(線形回帰モデル) 𝑦 𝒙, 𝒘
= 1 𝑤[ 𝜙[ ]W' [4% 𝒙 = 𝒘V 𝜙(𝒙) 𝜙 𝑥 :基底関数 基底関数を導⼊することによって⼊⼒に⾮線形な関数を⼊れるこ とができる。 2016/7/17 37
38.
線形回帰モデル • 線形回帰モデルとは⼊⼒変数に関して関数の線形結合となって いるようなモデル。 • これを線形回帰モデル(線形基底関数モデル)という。 •
⼊⼒が線形であるか⾮線形であるかは関係ない。 • 重みが⼀意に定まる 2016/7/17 38
39.
線形回帰モデル -基底関数の種類- • 𝜙[
= 𝑥*:線形回帰 • 𝜙[ = 𝑥* :多項式回帰 • ガウシアン関数:RBFネットワーク,SVM • シグモイド関数(tanh) • 三⾓関数:フーリエ変換 • ウェーブレット関数 • 短形波(短形関数),三⾓波(三⾓形関数) 基底関数の選び⽅は無限⼤! 2016/7/17 39
40.
線形回帰モデル • 基底関数を導⼊することによって直線だけでなく曲線とフィッ ティングできるようになった! • ⼊⼒が⾮線形であっても、yは重みに関して線形なので、重み を⼀意に定めることができる! 2016/7/17
40
41.
5. Curve Fitting (曲線フィッティング) 2016/7/17
41
42.
曲線フィッティング 𝑦 𝒙, 𝒘
= 1 𝑤[ 𝜙[ ]W' [4% 𝒙 = 𝒘V 𝜙(𝒙) 𝜙[ 𝑥 = 𝑥[ とすると 𝑦 = 𝑤% + 𝑤' 𝑥' + 𝑤2 𝑥2 + ⋯+ 𝑤]W' 𝑥]W' 2016/7/17 42
43.
曲線フィッティング 2016/7/17 43
44.
曲線フィッティング 2016/7/17 44 𝑦 =
𝑤%
45.
曲線フィッティグ 2016/7/17 45 𝑦 =
𝑤% + 𝑤' 𝑥'
46.
曲線フィッティング 2016/7/17 46 𝑦 =
𝑤% + 𝑤' 𝑥' + 𝑤2 𝑥2
47.
曲線フィッティング 2016/7/17 47 𝑦 =
𝑤% + 𝑤' 𝑥' + 𝑤2 𝑥2 + ⋯ + 𝑤_ 𝑥_
48.
曲線フィッティング • 𝑀 +
1 ≥ (観測点の個数)のとき、最⼩⼆乗法を⽤いると全て の点を通るようなM次の曲線にフィッティングさせることがで きる。 2016/7/17 48
49.
曲線フィッティング • Mを増やしていくと無理や りデータ点とフィッティン グさせようとするため、w の値が極端に⼤きくなって しまう。 • このような振る舞いをover- fitting(過学習)という。 •
汎化性能が著しく落ちる。 2016/7/17 49
50.
曲線フィッティング • 正則化項というものを⽤いることによってこの過学習をおさえ る事ができる。 • 正則化項を⽤いた線形回帰をリッジ回帰というらしい・・・ •
今回はその話はしません。(次回にできたらいいな。。。) 2016/7/17 50
51.
6. Conclusion 2016/7/17 51
52.
まとめ • 1つの説明(独⽴)変数で⽬的(従属)変数を表すのが単回帰。 • 複数の説明(独⽴)変数で⽬的(従属)変数を表すのが重回帰。 •
説明変数が独⽴じゃないと多重共線性が起こるよ。 • 線形回帰は直線を引く回帰ではなく、重みに関して線形になっ ている。 • 線形回帰、いろいろできる! • 過学習には気をつけて! 2016/7/17 52
53.
ご清聴ありがとうございました! 2016/7/17 53
54.
参考 • [線形回帰モデルとは] (http://jp.mathworks.com/help/stats/what-is-linear- regression.html) • [機械学習はじめよう] (http://gihyo.jp/dev/serial/01/machine-learning) •
[線形回帰-wikipedia] (https://ja.wikipedia.org/wiki/%E7%B7%9A%E5%BD%A2%E5%9B% 9E%E5%B8%B0) • パターン認識と機械学習(PRML) 上 • Rで学ぶ最新データ解析 回帰分析⼊⾨ 著豊⽥秀樹(2012) • 回帰分析とその応⽤ 著ウォナコット(1998) 2016/7/17 54
Download