Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
EN
YT
Uploaded by
Yuta Tomomatsu
PDF, PPTX
695 views
Regression2
2016/08/13のWSLの勉強会の資料。 正則化項とT検定 パーセプトロンとロジスティック回帰
Data & Analytics
◦
Related topics:
Logistic Regression
•
Read more
0
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 55
2
/ 55
3
/ 55
4
/ 55
5
/ 55
6
/ 55
7
/ 55
8
/ 55
9
/ 55
10
/ 55
11
/ 55
12
/ 55
13
/ 55
14
/ 55
15
/ 55
16
/ 55
17
/ 55
18
/ 55
19
/ 55
20
/ 55
21
/ 55
22
/ 55
23
/ 55
24
/ 55
25
/ 55
26
/ 55
27
/ 55
28
/ 55
29
/ 55
30
/ 55
31
/ 55
32
/ 55
33
/ 55
34
/ 55
35
/ 55
36
/ 55
37
/ 55
38
/ 55
39
/ 55
40
/ 55
41
/ 55
42
/ 55
43
/ 55
44
/ 55
45
/ 55
46
/ 55
47
/ 55
48
/ 55
49
/ 55
50
/ 55
51
/ 55
52
/ 55
53
/ 55
54
/ 55
55
/ 55
More Related Content
PDF
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約
by
Michimasa Haga
PDF
がうす・まるこふ の定理とかそのへん
by
T T
PDF
トピックモデル3.1節
by
Akito Nakano
PPTX
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
by
nocchi_airport
PDF
逐次ベイズ学習 - サンプリング近似法の場合 -
by
y-uti
PPTX
An introduction to statistical learning 4 logistic regression manu
by
Hideyuki Takahashi
PPTX
MLaPP輪講 Chapter 1
by
ryuhmd
PDF
おしゃスタat銀座
by
Issei Kurahashi
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約
by
Michimasa Haga
がうす・まるこふ の定理とかそのへん
by
T T
トピックモデル3.1節
by
Akito Nakano
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
by
nocchi_airport
逐次ベイズ学習 - サンプリング近似法の場合 -
by
y-uti
An introduction to statistical learning 4 logistic regression manu
by
Hideyuki Takahashi
MLaPP輪講 Chapter 1
by
ryuhmd
おしゃスタat銀座
by
Issei Kurahashi
Viewers also liked
ODP
R言語で統計分類基本
by
Paweł Rusin
PDF
階層ベイズによるワンToワンマーケティング入門
by
shima o
PPTX
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
by
Shunsuke Nakamura
PDF
基礎からのベイズ統計学 2章 勉強会資料
by
at grandpa
PDF
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
by
Ken'ichi Matsui
PDF
ロジスティック回帰分析の書き方
by
Sayuri Shimizu
PDF
統計学の基礎の基礎
by
Ken'ichi Matsui
PDF
機械学習によるデータ分析まわりのお話
by
Ryota Kamoshida
R言語で統計分類基本
by
Paweł Rusin
階層ベイズによるワンToワンマーケティング入門
by
shima o
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
by
Shunsuke Nakamura
基礎からのベイズ統計学 2章 勉強会資料
by
at grandpa
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
by
Ken'ichi Matsui
ロジスティック回帰分析の書き方
by
Sayuri Shimizu
統計学の基礎の基礎
by
Ken'ichi Matsui
機械学習によるデータ分析まわりのお話
by
Ryota Kamoshida
Similar to Regression2
PDF
第5回スキル養成講座 講義スライド
by
keiodig
PPTX
仮説検定
by
Hideyuki Takahashi
PPTX
Rゼミ 3
by
tarokun3
PPTX
Darm3(samplesize)
by
Yoshitake Takebayashi
PPT
K090 仮説検定
by
t2tarumi
PDF
20140514_水曜セミナー発表資料_中村知繁
by
Tomoshige Nakamura
PPT
080 統計的推測 検定
by
t2tarumi
PDF
Eureka agora tech talk 20170829
by
Shinnosuke Ohkubo
PPTX
生物系研究者のための統計講座
by
RIKEN, Medical Sciences Innovation Hub Program (MIH)
PDF
みどりぼん3章前半
by
Akifumi Eguchi
PDF
Rで学ぶロバスト推定
by
Shintaro Fukushima
PDF
Rm20150520 6key
by
youwatari
PDF
2 4.devianceと尤度比検定
by
logics-of-blue
PPTX
RUTILEA社内勉強会第2回 「多重検定」
by
TRUE_RUTILEA
PPTX
R言語による簡便な有意差の検出と信頼区間の構成
by
Toshiyuki Shimono
PDF
2014年5月14日_水曜セミナー発表内容_FINAL
by
Tomoshige Nakamura
PPTX
統計的学習の基礎_3章
by
Shoichi Taguchi
PDF
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
by
Akira Asano
PDF
Analysis of clinical trials using sas 勉強用 isseing333
by
Issei Kurahashi
PDF
2021年度秋学期 統計学 第15回 分布についての仮説を検証する - 仮説検定(2)(2022. 1. 18)
by
Akira Asano
第5回スキル養成講座 講義スライド
by
keiodig
仮説検定
by
Hideyuki Takahashi
Rゼミ 3
by
tarokun3
Darm3(samplesize)
by
Yoshitake Takebayashi
K090 仮説検定
by
t2tarumi
20140514_水曜セミナー発表資料_中村知繁
by
Tomoshige Nakamura
080 統計的推測 検定
by
t2tarumi
Eureka agora tech talk 20170829
by
Shinnosuke Ohkubo
生物系研究者のための統計講座
by
RIKEN, Medical Sciences Innovation Hub Program (MIH)
みどりぼん3章前半
by
Akifumi Eguchi
Rで学ぶロバスト推定
by
Shintaro Fukushima
Rm20150520 6key
by
youwatari
2 4.devianceと尤度比検定
by
logics-of-blue
RUTILEA社内勉強会第2回 「多重検定」
by
TRUE_RUTILEA
R言語による簡便な有意差の検出と信頼区間の構成
by
Toshiyuki Shimono
2014年5月14日_水曜セミナー発表内容_FINAL
by
Tomoshige Nakamura
統計的学習の基礎_3章
by
Shoichi Taguchi
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
by
Akira Asano
Analysis of clinical trials using sas 勉強用 isseing333
by
Issei Kurahashi
2021年度秋学期 統計学 第15回 分布についての仮説を検証する - 仮説検定(2)(2022. 1. 18)
by
Akira Asano
Regression2
1.
Regression(回帰)② &分類 WSL勉強会 2016/08/13(⼟) 友松祐太 2016/8/13 1
2.
はじめに • 本スライドは本・ネットの資料を参考に作成した資料です。資 料内に誤りがあるかもしれません。。(指摘をお願いします。) 2016/8/13 2
3.
もくじ • 1. 回帰 •
1.1 正則化 • 1.2 t検定 • 2. 分類 • 2.1 パーセプトロン • 2.2 ロジスティック回帰 2016/8/13 3
4.
1. 回帰 2016/8/13 4
5.
1.1 正則化 2016/8/13 5
6.
過学習(復習) • 曲線回帰式:𝑦 =
𝑤$ + 𝑤& 𝑥& + 𝑤( 𝑥( + ⋯ + 𝑤*+& 𝑥*+& • データ点の数>Mの時全ての点にフィットさせることができる。 • ⼀⽅、Mを増やしていくと無理やりデータ点とフィッティング させようとするため、wの値が極端に⼤きくなってしまう。 • このような振る舞いをover-fitting(過学習)という。 2016/8/13 6
7.
過学習(復習) 2016/7/17 7
8.
過学習(復習) 2016/7/17 8 𝑦 =
𝑤$ 𝑦 = 𝑤$ + 𝑤& 𝑥& 𝑦 = 𝑤$ + 𝑤& 𝑥& + 𝑤( 𝑥( 𝑦 = 𝑤$ + 𝑤& 𝑥& + 𝑤( 𝑥( + ⋯ + 𝑤, 𝑥,
9.
過学習(復習) • 過学習で問題になるのは重 みwが発散してしまうこと。 • 重みwが⼩さくなるように 調整すればいいんじゃ ね?? •
⇒正則化項付き回帰 2016/8/13 9
10.
正則化 • 正則化項付き回帰では、重みが⼤きくなるのがいけないこと(罰則)として、最適化を⾏う。 • 普通の線形回帰の誤差関数 𝐸
𝑤 = . 𝑤/ 𝑥0 / − 𝑦0 ( 2 03& • 正則化項付き線形回帰の誤差関数 𝐸 𝑤 = . 𝑤/ 𝑥0 / − 𝑦0 ( 2 03& + 𝜆 . |𝑤/| * /3& ・・・𝐿1正則化 𝐸 𝑤 = . 𝑤/ 𝑥0 / − 𝑦0 ( 2 03& + 𝜆 . 𝑤/ ( * /3& ・・・𝐿2正則化 2016/8/13 10
11.
正則化 • 正則化項(⼀般化) 𝜆 .
𝑤/ : * /3& • λは罰則の⼤きさを表す。λ=0の時、普通の線形回帰になる。 λが⼤きくなるに連れてwが⼤きくなるのが厳しい罰になる。 2016/8/13 11 q 正則化 回帰の名前 q=1 L1正則化 Lasso回帰 q=2 L2正則化 Ridge回帰 1<q<2 Elastic Net それぞれの正 則化の性質は 前回のはやぴ の資料を⾒て ね!!
12.
2016/8/13 12
13.
2016/8/13 13
14.
2016/8/13 14
15.
正則化 • L1正則化は変数選択と次元削 減を⾏う。 • L2正則化は係数を縮⼩して過 学習を抑える。 2016/8/13
15
16.
1.2 t検定 2016/8/13 16
17.
Excelで回帰分析を⾏うと… 2016/8/13 17
18.
Excelで回帰分析を⾏うと… 2016/8/13 18 t値とはなんぞ や? t検定って何がで きるの??
19.
Whatʼs t検定 • 帰無仮説が正しいと仮定した場合に、統計量がt分布に従うこと を利⽤する統計学的検定法の総称である。 •
⺟集団が正規分布に従うと仮定するパラメトリック検定法であ り、t分布が直接、もとの平均や標準偏差にはよらない(ただし ⾃由度による)ことを利⽤している。 • 2組の標本について平均に有意差があるかどうかの検定などに ⽤いられる。 (Wikipediaより) 2016/8/13 19
20.
Whatʼs t検定 • 帰無仮説が正しいと仮定した場合に、統計量がt分布に従うこと を利⽤する統計学的検定法の総称である。 •
⺟集団が正規分布に従うと仮定するパラメトリック検定法であ り、t分布が直接、もとの平均や標準偏差にはよらない(ただし ⾃由度による)ことを利⽤している。 • 2組の標本について平均に有意差があるかどうかの検定などに ⽤いられる。 (Wikipediaより) この説明で 分かればこ の発表は必 要ないです 2016/8/13 20
21.
Whatʼs t検定 • 帰無仮説が正しいと仮定した場合に、統計量がt分布に従うこと を利⽤する統計学的検定法の総称である。 •
⺟集団が正規分布に従うと仮定するパラメトリック検定法であ り、t分布が直接、もとの平均や標準偏差にはよらない(ただし ⾃由度による)ことを利⽤している。 • 2組の標本について平均に有意差があるかどうかの検定などに ⽤いられる。 (Wikipediaより) 2016/8/13 21
22.
有意差 • 品種の異なる2種類のりんご(A,B)があったとする。 • りんごAとりんごBはサイズが異なることを⽰したい。 •
どのようなデータであればりんごAとりんごBはサイズが違うと いうことが⾔えるだろうか? 2016/8/13 22
23.
有意差 ①りんごAとりんごBのサイズの平均値(期待値)を求めて⽐較す る ai サイズ a1 13 a2
13.5 a3 13.3 a4 14 a5 12.8 bi サイズ b1 14 b2 14.2 b3 15 b4 13.8 b5 12 13.8 13.32 2016/8/13 23
24.
有意差 • ②分散が⼩さい 期待値は同じだけど、同じ⼤きさとして扱って良い?? ai サイズ a1
10 a2 20 a3 30 a4 40 bi サイズ b1 23.5 b2 24.5 b3 25.5 b4 26.5 25 25 2016/8/13 24
25.
有意差 • ③サンプルの量が⼗分にある 期待値は同じだけど、同じ⼤きさとして扱って良い??2016/8/13 25 ai
サイズ a1 13 a2 13.5 a3 13.3 bi サイズ b1 14 b2 14.2 b3 15 ⋮ ⋮ b100 12 13.36 13.36
26.
有意差まとめ • ①期待値 • ②分散 •
③サンプルサイズ これらを考慮すると意味のある差=有意差を求めることができる。 これをまとめたものがt値である。 𝑡値 = 期待値の差 分散的ななにがし ÷ サンプルサイズ的ななにがし t値を⾒ることによって、”たまたま平均値に差がある”のではなく、 “必然的に平均値に差がある”ということの確認を⾏うことができる。 2016/8/13 26
27.
t検定 • t値がどのくらい⼤きければ有意に差があるといえるのだろう か??⇒t検定をおこなう! 2016/8/13 27
28.
統計的仮説検定 帰無仮説が正しいと仮定した上で、その仮説が起 こる確率を求め、その確率が⼗分に⼩さい(有意⽔ 準以下の)時にその仮説を棄却することによって、 対⽴仮説が正しいことを説明する検定⽅法 • 帰無仮説:主張したい仮説の逆の仮説のことを⾔う。H0と表す • 対⽴仮説:主張したい仮説。帰無仮説を棄却することによってその 正しさを主張する。H1と表す。 •
有意⽔準:どれぐらい⼩さい確率をめったに起きない確率と定義す るかの⽔準(5%,1%がよく使われる) 2016/8/13 28
29.
t検定における帰無仮説 • 帰無仮説:期待値μ1とμ2が有意に差が無い(μ1-μ2=0) • 対⽴仮説:期待値μ1とμ2が有意に差がある(μ1-μ2≠0) •
t値がt分布の両側5%の領域に⼊っている(帰無仮説が起こるこ とがほとんどない)ことを⽰す事によって帰無仮説を棄却する。 2016/8/13 29
30.
棄却域 • 有意⽔準を5%としたとき右の図のオレ ンジの部分を⾒れば良い。 • 有意⽔準5%としたとき、t値が⼤体2.0 以上のとき2つの期待値に有意差があ るとして良い。 2016/8/13
30
31.
回帰におけるt検定 • 回帰では求めた重みが0と有意に差があるかどうかというのをt 検定することによって、その説明変数が意味のあるものなのか どうかを検定することができる。 • 帰無仮説:重みwが0と有意に等しい。 •
対⽴仮説:重みwが0と有意に差がある。 2016/8/13 31
32.
回帰におけるt検定 2016/8/13 32
33.
2. 分類 2016/8/13 33
34.
分類 • データをある決まった規則にそって複数のクラスに分けること を分類という。 • Y=f(x)というモデルを使うにあたって、Yが離散値ならば分類 問題、Yが連続値ならば回帰問題ということになる •
例) • メールをスパムとそうでないものに分ける(2値分類) • ウェブニュースをスポーツや政治等のジャンルに分ける(多 値分類) 2016/8/13 34
35.
分類 • このようなデータが与えられた時… 2016/8/13 35
36.
分類 • ⻘のデータとオレンジのデータを分けるような線が引けそう! これが 分類問題! 2016/8/13 36
37.
2.1 単純パーセプトロン 2016/8/13 37
38.
単純パーセプトロン • ⼊⼒層と出⼒層からなる、線形分類器 • それぞれの⼊⼒に対して重みが設けられており、それらの和が 閾値以上になると発⽕する(1を出⼒)。閾値未満ならば発⽕しな い(0を出⼒する) 2016/8/13
38
39.
パーセプトロン 2016/8/13 39 𝑥& 𝑥( 𝑥0 ⋮ 𝑤& 𝑤( 𝑤0 𝑦 = 1 𝑖𝑓
. 𝑥0 𝑤0 0 /3& ≥ 𝜃 0 𝑖𝑓 . 𝑥0 𝑤0 0 /3& < 𝜃 𝑦∑ 𝜃
40.
分類 先程の例では… 𝑦 = 𝑎𝑥
+ 𝑏𝑦 + 𝑐 の分離線が引ければ良さそう 2016/8/13 40 𝑥 𝑦
41.
パーセプトロン 2016/8/13 41 1 𝑥 𝑦 𝑐 𝑎 𝑏 𝑓 =
H 1 𝑖𝑓 𝑎𝑥 + 𝑏𝑦 + 𝑐 ≥ 0 0 𝑖𝑓 𝑎𝑥 + 𝑏𝑦 + 𝑐 < 0 𝑓∑ 0 パーセプトンを解い て重みが求まれば分 類問題が解けそう!
42.
パーセプトンを解く! • パーセプトロンを解くには、、、 回帰と同様に、誤差関数を最⼩化する! • では、誤差関数は? 回帰では、正解と予測値のズレを誤差と定義していた。 これを分類問題に適⽤してしまうと、どんなに値が正解 とずれていても、誤差は1になってしまう 2016/8/13
42
43.
パーセプトロンを解く! • パーセプトンの誤差関数 𝐸 𝑎,
𝑏, 𝑐 = . 𝑎𝑥0 + 𝑏𝑦0 + 𝑐 0∈K (𝑀: 予測値が正解と異なったデータ群) 2016/8/13 43 正解までどれ くらい動かせ ばよいか
44.
パーセプトロンを解く! • パーセプトロンは線形回帰のように1発では求まらない。。 • 確率的勾配降下法を使う! 更新式 P 𝑎0QR
= 𝑎STU + 𝑡0 𝑥0 𝑏0QR = 𝑏STU + 𝑡0 𝑦0 𝑐0QR = 𝑐STU + 𝑡0 (※予測値が正解と異なる場合に更新) 2016/8/13 44
45.
パーセプトロンのメリット/デメリット • 線形分離可能なデータに対しては必ず最適な線が引ける。 • 線形分離可能でないデータに対してはうまく求まらない。 線形分離可能でないデータの例⇒ 2016/8/13
45 𝑥 𝑦
46.
ロジスティック回帰 2016/8/13 46
47.
線形分類モデル • クラスに所属するか否かという2値で分類する(教師なしで⾔う ところのハードクラスタリング的なもの)と、0.001だけ正例に 含まれたがために正解のような微妙なものが出てくる。 • 各クラスへの所属確率が分かれば、その値を信頼度として使う ことができる(教師なしで⾔うところのソフトクラスタリング的 なもの) ⇒線形分類モデル 2016/8/13
47
48.
線形分類モデル • 線形分類モデルには条件付き確率をモデル化した⽣成的モデル と訓練例の出⼒を最⼤化する識別モデルがある • ⽣成的モデル •
ナイーブベイズ • LDA(Linear Discriminant Analysis) • 識別モデル • ロジスティック回帰 • パーセプトロン • 線形SVM 2016/8/13 48
49.
線形分類モデル • 線形分類モデルには条件付き確率をモデル化した⽣成的モデル と訓練例の出⼒を最⼤化する識別モデルがある • ⽣成的モデル •
ナイーブベイズ • LDA(Linear Discriminant Analysis) • 識別モデル • ロジスティック回帰 • パーセプトロン • 線形SVM 2016/8/13 49
50.
ロジスティック回帰 • パーセプトロンの判別式を確率化する! • 𝑓
𝑥 = 𝑤V 𝜙 𝑥 = ∑ 𝑤/ 𝜙/(𝑥)/ • この判別式によって0以上だったら正例,0未満ならば不例となる • つまり、判別式の値が⼤きくなればなるほどそのクラスへの所 属確率が上がっていく!! • 判別式の値が⼩さくなればなるほど正例である確率は0に 2016/8/13 50
51.
ロジスティック回帰 • 先程までの例だと判別式 の値は-∞から∞までの値 を取りうる。 • ロジスティック関数(シグ モイド関数)を使うことに よって0から1の範囲に抑 えこむ ⇒確率的扱いができるよう になる! 2016/8/13
51
52.
ロジスティック回帰 • ロジスティック回帰の判別式 • 𝑝
𝑥 = 𝜎 𝑤V 𝜙 𝑥 • ※𝜎 𝑡 = & &Z[] (+^) • 今回、判別式の導出までは扱いません。 2016/8/13 52
53.
まとめ • 正則化項は重みを抑制することによって過学習を抑えることが できる! • 回帰でのt値は説明変数の重要度を⾒ることができる •
パーセプトロンは線形分離可能なとき綺麗に分類できる! • ロジスティック回帰を使うことによって確率的に分類ができる よ! • Letʼs ロジスティック回帰! 2016/8/13 53
54.
ご清聴ありがとうございました! 2016/8/13 54
55.
参考 • (機械学習はじめよう)[http://gihyo.jp/dev/serial/01/machine-learning] • (1章-t検定(数式なし))[http://logics-of-blue.com/1%E7%AB%A0- t%E6%A4%9C%E5%AE%9A%EF%BC%88%E6%95%B0%E5%BC%8F%E3 %81%AA%E3%81%97%EF%BC%89/] •
(t検定- wikipedia)[https://ja.wikipedia.org/wiki/T%E6%A4%9C%E5%AE%9A#t. E6.A4.9C.E5.AE.9A.E3.82.92.E5.A7.8B.E3.82.81.E3.82.8B.E5.89.8D.E3.81. AB • (Elastic Netの勉 強)[http://kskbyt.hatenablog.jp/entry/2016/03/02/004122] • (Ridge回帰とLasso - 突然終わるかもしれないブロ グ)[http://mkprob.hatenablog.com/entry/2014/12/24/005655] 2016/8/13 55
Download