Submit Search
Upload
統計的学習の基礎 3章前半
•
0 likes
•
591 views
Kazunori Miyanishi
Follow
社内での読書会の発表資料です。 原著は https://web.stanford.edu/~hastie/Papers/ESLII.pdf
Read less
Read more
Technology
Report
Share
Report
Share
1 of 30
Download now
Download to read offline
Recommended
カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
統計的学習の基礎 第2章後半
統計的学習の基礎 第2章後半
Prunus 1350
PRML輪読#3
PRML輪読#3
matsuolab
統計的学習の基礎 3章後半
統計的学習の基礎 3章後半
Kazunori Miyanishi
PRML 2.4
PRML 2.4
kazunori sakai
西山計量経済学第8章 制限従属変数モデル
西山計量経済学第8章 制限従属変数モデル
Katsuya Ito
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
Recommended
カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
統計的学習の基礎 第2章後半
統計的学習の基礎 第2章後半
Prunus 1350
PRML輪読#3
PRML輪読#3
matsuolab
統計的学習の基礎 3章後半
統計的学習の基礎 3章後半
Kazunori Miyanishi
PRML 2.4
PRML 2.4
kazunori sakai
西山計量経済学第8章 制限従属変数モデル
西山計量経済学第8章 制限従属変数モデル
Katsuya Ito
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
PRML輪読#2
PRML輪読#2
matsuolab
ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
hoxo_m
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
Yohei Sato
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
Hiroshi Shimizu
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
「統計的学習理論」第1章
「統計的学習理論」第1章
Kota Matsui
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
Okamoto Laboratory, The University of Electro-Communications
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML 第4章
PRML 第4章
Akira Miyazawa
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定
Joe Suzuki
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
Prml sec3
Prml sec3
Keisuke OTAKI
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
PRML セミナー
PRML セミナー
sakaguchi050403
More Related Content
What's hot
PRML輪読#2
PRML輪読#2
matsuolab
ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
hoxo_m
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
Yohei Sato
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
Hiroshi Shimizu
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
「統計的学習理論」第1章
「統計的学習理論」第1章
Kota Matsui
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
Okamoto Laboratory, The University of Electro-Communications
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML 第4章
PRML 第4章
Akira Miyazawa
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定
Joe Suzuki
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
Prml sec3
Prml sec3
Keisuke OTAKI
What's hot
(20)
PRML輪読#2
PRML輪読#2
ベイズ統計入門
ベイズ統計入門
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
「統計的学習理論」第1章
「統計的学習理論」第1章
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
PRML 第4章
PRML 第4章
連続変量を含む条件付相互情報量の推定
連続変量を含む条件付相互情報量の推定
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Prml sec3
Prml sec3
Similar to 統計的学習の基礎 3章前半
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
PRML セミナー
PRML セミナー
sakaguchi050403
PRML4.3
PRML4.3
hiroki yamaoka
自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare
wada, kazumi
2次元/3次元幾何学変換の統一的な最適計算論文
2次元/3次元幾何学変換の統一的な最適計算論文
doboncho
VBAで数値計算 10 逆行列と疑似逆行列
VBAで数値計算 10 逆行列と疑似逆行列
Katsuhiro Morishita
主成分分析
主成分分析
貴之 八木
Rの初歩: 6. グラフィックス
Rの初歩: 6. グラフィックス
Teiko Suzuki
第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Yukara Ikemiya
Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説
Tomonari Masada
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
データ解析2 線形代数の復習
データ解析2 線形代数の復習
Hirotaka Hachiya
UTPC2012 - K
UTPC2012 - K
omeometo
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Issei Kurahashi
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
Wataru Kishimoto
5 Info Theory
5 Info Theory
melvincabatuan
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
Itaru Otomaru
ma92007id395
ma92007id395
matsushimalab
Similar to 統計的学習の基礎 3章前半
(20)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
PRML セミナー
PRML セミナー
PRML4.3
PRML4.3
自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare
2次元/3次元幾何学変換の統一的な最適計算論文
2次元/3次元幾何学変換の統一的な最適計算論文
VBAで数値計算 10 逆行列と疑似逆行列
VBAで数値計算 10 逆行列と疑似逆行列
主成分分析
主成分分析
Rの初歩: 6. グラフィックス
Rの初歩: 6. グラフィックス
第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
データ解析2 線形代数の復習
データ解析2 線形代数の復習
UTPC2012 - K
UTPC2012 - K
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
5 Info Theory
5 Info Theory
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
ma92007id395
ma92007id395
Recently uploaded
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Toru Tamaki
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
Toru Tamaki
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
taisei2219
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Yuma Ohgami
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
Toru Tamaki
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
Recently uploaded
(14)
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
統計的学習の基礎 3章前半
1.
カステラ本 (3章前半) サイバーエージェント アドテク本部 AI Lab 宮西
一徳
2.
第3章 回帰のための線形手法 の前半 3.4.3まで 図は原著より引用
3.
線形回帰モデル (x1, y1) .
. . (xN , yN ) 訓練データ から、βを推定したい。 最小二乗法で、残差平方和を最小化するのが一般的な方法 → 入力X、未知のパラメータβで出力Yを予測するモデル 線形回帰モデルと最小二乗法 XがN×(p+1)行列、YがN次元ベクトルとすると、 residual sum-of-squares
4.
線形回帰モデルと最小二乗法 RSSが最小となるときのβを知りたい RSSをβで微分して0になるときの βが求める推定値 (3.6) (3.7) (3.8) 分散共分散行列 なので、以下の多変量正規分布に従う (3.10) (σ2 : 観測値yi の分散)
5.
線形回帰モデルと最小二乗法 σ2 の推定値 分散の不偏推定量は RSS/自由度 全変動=回帰変動+残差変動 全変動の自由度: N-1(標本数-1) 回帰変動の自由度:
p(入力データの次元数) 残差変動の自由度は N-1-p 誤差項の分散の不偏推定量は、 これがσ2 (観測値yi の分散)の不偏推定量になる (3.9) これのεの分散を推定した値 観測値の分散ではない
6.
特定の係数を0にできるかの検定 Zスコア(標準化スコア)= 数値から平均値を引いて標準偏差で割ったもの z=(x-μ)/s j番目の係数の分散は
σ2 vj → 標準偏差はσ√vj vj は のj番目の対角成分 平均を0としたときのZスコアは、 βj =0 という帰無仮説のもとt検定。→ zj の絶対値が大きいときは棄却する。
7.
複数の係数を同時に0にできるかの検定 F統計量 分子は、p0 からp1 にパラメータを増やしたときの残差二乗和の差分 分母は、σ2 の推定値 という分布に従う
8.
例:前立腺癌 説明変数間の相関 lcavolとlcpが目的変数lpsaと強い相関 lcavolとlcpの間にも強い相関 各係数のZスコア (絶対値が2を超えると0にできない) lcavolが強い影響 lweightとsviも同様 lcpは重要ではない(lcavolが入ってると) [引用 https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
9.
例:前立腺癌 各係数のZスコア (絶対値が2を超えると0にできない) F統計量で同時に複数の変数を除外できるか検定 age, lcp, gleason,
pgg45を除外する場合、 このときのp値が0.17となり有意ではない。 [引用 https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
10.
ガウス=マルコフ定理 バイアスを犠牲にして分散を小さくできれば、 MSEがより小さくなる不偏ではない推定量が存在する可能性がある ex. 変数選択やリッジ回帰で係数を縮小したり0にしたり 全ての線形不偏推定量の中で、最小二乗推定量が最も小さい平均二乗誤差(MSE)を持つ MSEは、分散とバイアスに分解することができる。
11.
単回帰から重回帰 切片のない1変数モデル の最小二乗推定量と残差は ベクトル表記 切片と1変数のモデルについて 1. x=β0 1+ε
→ 残差 2. y=β1 z +ε 残差=説明変数で説明できない=説明変数と残差に相関がない=直交する この場合の残差Zは、Xから切片の影響を除外したもの ステップ1のβ0 の推定値がxの平均値となるので、残差zは 個人的な解釈 このβ1 の推定値が
12.
単回帰から重回帰 説明変数の数をpに増やした場合、 z0 ~ zj-1 を使ってxj を推定する回帰をして、 最小二乗推定量βj と残差zj を求める。 pまで繰り返して、最後はyを推定する回帰で βp を求める。 これをグラム=シュミットの直交化法
という [引用 https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
13.
変数選択 ● 最良変数組み合わせ選択 ● 前向き/後向き漸次的選択法 ●
前向き段階的回帰
14.
変数選択(最良変数組み合わせ選択) 変数の部分集合の総当たりでいいのを見つける 部分集合の大きさkは大きいほどいいので、kを決めるには別の基準が必要になる。 → 一般的には、「期待予測誤差を最小化する最も小さいモデルを選択する」 [引用 https://web.stanford.edu/~hastie/Papers/ESLII.pdf
]
15.
変数選択(前向き/後向き漸次的選択法) ● 前向き ○ 切片から始めて、最もいい推定結果になる説明変数を順次加えていく。 ○
準最適解しか求められない ○ 説明変数の数がデータ数より多くても計算可能 ○ 制約された探索のため、低分散高バイアス ● 後向き ○ フルセットの説明変数から始めて、影響の小さい変数を順次除去していく。 ○ 説明変数の数がデータ数より少ないときしか無理
16.
変数選択(前向き段階的回帰) ● 切片をyの平均値、その他の係数を全て0でスタート ● 残差と最も相関の大きい変数を選択し、残差に対する単回帰係数を求めて、その変数の係数に加える。 ●
残差と相関を持つ変数がなくなるまで繰り返す。 ● 説明変数の数以上繰り返す必要があり遅い。けどなんかいいらしい。→3.8.1で説明
17.
変数選択(比較) 前向き/後向きはほぼ同じ。 前向き段階的回帰は選択回数が多め。 [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
18.
縮小推定 変数選択は、変数を使うか使わないかを選ぶ(離散的) → 分散が大きくなって、予測誤差が減りにくい。 縮小推定を使うと、この問題は起こらない。
19.
縮小推定(リッジ回帰)(1/7) パラメータの大きさに罰則を課す。 残差二乗 和 罰則項 = 係数の二乗和 こう書くこともできる↓ λとtが一対一に対応する何か 説明変数間に相関があると、 それらの変数に対して、 正負の大きな係数が割り当てられて、不安定になる。(多 重共線性) リッジ回帰では、係数の大きさに制約を課しているので、こ の問題は起きない。
20.
縮小推定(リッジ回帰)(2/7) ❖ 説明変数の大きさの影響を受けるので、標準化する必要がある。 ➢ 平均0、分散1になるように変換する ❖
罰則項に切片は入れない ➢ 切片に罰則を課すと、目的変数の原点の選び方に依存してしまうから。
21.
中心化 → とすると、切片β0 はyの平均で推定できる
→ 残りの係数は切片なしのリッジ回帰で推定できるので、 行列形式で書くと、 (3.43) このときのリッジ回帰の解は、 (3.6) ちなみに、 最小二乗法での解は、 比べると、 の対角成分にλ≧0を加えている → 特異行列にならなくなるので、必ず逆行列が求まる。 縮小推定(リッジ回帰)(3/7)
22.
縮小推定(リッジ回帰)(4/7) Xの特異値分解 U(N×p)はXの列空間、 V(p×p)はXの行空間、 D(p×p)の対角成分はXの特異値 ■ 最小二乗法の解 ■ リッジ回帰の解 ←
dはXの特異値で、d2 が小さいとより強く縮小される。
23.
縮小推定(リッジ回帰)(5/7) → 第一主成分と呼ぶ → (Xの固有値分解) ここで、Vの列ベクトルは、固有ベクトル
vj でXの主成分方向とも呼ばれる 第一主成分方向v1は、 z1 =Xv1 がXの列ベクトルの線形結合の中で最も大きい分散を持ち となり、z1 は 特異値d1 , d2 ,..., dj の順に小さくなっていき、小さい特異値はXの列空間上で分散が小さくなる。 前のページの、 Xの特異値 d2 が小さいとより強く縮小される。 リッジ回帰は、小さい特異値の方向の成分を 強く縮小する
24.
縮小推定(リッジ回帰)(6/7) 二次元データを主成分方向に射影してプロットした図 大きい主成分=分散が大きい 小さい主成分=分散が小さい リッジ回帰は分散が小さい方向の成分を縮小する 予測変数は応答変数に応じて変化するはず → 応答変数は入力の分散が大きい方向に最も変化しやすいはず [引用 https://web.stanford.edu/~hastie/Papers/ESLII.pdf
]
25.
縮小推定(リッジ回帰)(7/7) リッジ回帰の有効自由度 説明変数の数がpとすると、通常自由度は p リッジ回帰では、λの制約を受けるので それに対応した自由度が↑の有効自由度 λ=0のとき df(λ)=p λ→∞のとき
df(λ)→0 例、df(λ)=5 のとき推定予測誤差が最小→ [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
26.
縮小推定(lasso) リッジ回帰でL2だった罰則をL1にしたもの tを小さくすると、いくつかの係数を0にできる → 変数選択が可能 tは、リッジ回帰と同様、期待推定誤差の推定値を最 小化するように適応的に決めればいい 調整パラメータ に対応する係数の変化 リッジは係数が0にならないが、lassoは
sを0に近づけると0になる。 [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
27.
部分集合選択、リッジ、lassoの考察(1/4) の符号にあわせて(sign) max( , 0) [
https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
28.
部分集合選択、リッジ、lassoの考察(2/4) lasso リッジ回帰 lassoの場合、頂点で交わると一方のパラメータが0になる 高次元になると頂点とか辺が増えて、複数のパラメータが0になるケースが増える [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf
]
29.
部分集合選択、リッジ、lassoの考察(3/4) 罰則のところ一般化すると qを変えたときの制約領域 q=1のときlassoで、2のときリッジ [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf
]
30.
部分集合選択、リッジ、lassoの考察(4/4) q=1, 2 以外のときも試したくなるが、経験上分散が大きくなってよくない。 lassoとリッジの折衷案としてElasticNetが提案された 罰則項→ lassoのように変数を選択し、 リッジのように相関のある変数の係数を縮 小する。 Lq 罰則よりも計算コストが小さい [
https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
Download now