Submit Search
Upload
統計的学習の基礎 3章後半
•
1 like
•
298 views
Kazunori Miyanishi
Follow
社内での読書会の発表資料です。 原著は https://web.stanford.edu/~hastie/Papers/ESLII.pdf
Read less
Read more
Technology
Report
Share
Report
Share
1 of 25
Download now
Download to read offline
Recommended
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半
Kazunori Miyanishi
統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
PRML輪読#3
PRML輪読#3
matsuolab
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
MCMC法
MCMC法
MatsuiRyo
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
Recommended
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半
Kazunori Miyanishi
統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
PRML輪読#3
PRML輪読#3
matsuolab
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
MCMC法
MCMC法
MatsuiRyo
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
統計的学習の基礎 第2章後半
統計的学習の基礎 第2章後半
Prunus 1350
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
PRML輪読#8
PRML輪読#8
matsuolab
PRML 5.3-5.4
PRML 5.3-5.4
正志 坪坂
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布
KokiTakamiya
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
Shushi Namba
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
hagino 3000
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Yuya Takashina
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Hiroyuki Kato
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
More Related Content
What's hot
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
統計的学習の基礎 第2章後半
統計的学習の基礎 第2章後半
Prunus 1350
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
PRML輪読#8
PRML輪読#8
matsuolab
PRML 5.3-5.4
PRML 5.3-5.4
正志 坪坂
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布
KokiTakamiya
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
Shushi Namba
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
hagino 3000
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Yuya Takashina
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Hiroyuki Kato
What's hot
(20)
変分ベイズ法の説明
変分ベイズ法の説明
統計的学習の基礎 第2章後半
統計的学習の基礎 第2章後半
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
PRML第6章「カーネル法」
PRML第6章「カーネル法」
PRML輪読#8
PRML輪読#8
PRML 5.3-5.4
PRML 5.3-5.4
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Recently uploaded
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
Recently uploaded
(9)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
統計的学習の基礎 3章後半
1.
カステラ本 (3章後半) サイバーエージェント アドテク本部 AI Lab 宮西
一徳
2.
第3章 回帰のための線形手法 の後半 3.4.4以降 図は原著より引用
3.
1. 初期化: 予測変数は標準化して、残差は平均と の差、係数は全て0 2.rと一番相関の高い予測変数xj を見つける 3.βj を0から最小二乗係数=xj ・rの方向へ 他の変数xk と残差の相関がxj と同じになるまで 4.βj とβk を最小二乗係数の方向へ 他の変数xl と残差の相関と同じになるまで 最小角回帰 [
https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
4.
最小角回帰 残差 Xから残差への回帰係数は の時、 係数の更新は (αは他の変数が同じ相関を持つまでの度合い) L1弧長を定義する β(α)をαで微分するとδだけ残る = 係数を更新したときの変化分 なので、L1弧長は変化分のL1ノルムを足し合わせた もの ≒
係数変化の大きさ??
5.
最小角回帰 変数を追加していくと、 相関係数の絶対値が減っていく [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
6.
最小角回帰 lassoと比較すると似てる。 係数が0をまたぐとき異なっていて、 経路が得られるように最小角回帰の step4を↓のように修正した。 係数が0になったとき、 それ対応する変数を使用済み リストから除外して再計算する [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
7.
最小角回帰 式(3.56)と式(3.58)を比較して、 βと内積の符号が一致するとき同じだが、それ以外で は違ってくる → 0をまたぐときにグラフが違っていた原因はこれ (3.56) (3.57) (3.58) 使用済み変数集合Aとして、 使用済み変数と残差との内積は、 lassoのラグランジュ形式 ベクトル形式で書くと βで微分して0とおくと
8.
最小角回帰 合計L1 弧長に対する平均標準誤差(MSE) のグラフ 黒の前向き漸次的回帰が、 早い段階で過学習して精度が悪い。 黄色の前向き段階的回帰は、 収束が遅いが性能は良い。 最小角回帰(LAR)もlassoも、 前向き段階的回帰と同様。 [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
9.
最小角回帰およびlassoの自由度方程式 適合させるベクトル の自由度を定義する 予測値と観測値の標本共分散 dfが大きくなるほど、fittingが難しくなる
10.
入力に対して線形変換を行う方法 変数選択の話 ● 主成分回帰 ● 部分最小二乗法
11.
主成分回帰 主成分を線形結合とする 主成分は直交しているので、単回帰の和で表される
12.
主成分回帰 リッジ回帰との関係 ・リッジ回帰: 主成分の係数を、固有値の大きさに応じて縮小させる ・主成分回帰: 主成分の小さい方からp-M個を除去する [
https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
13.
部分最小二乗法 直交化をM個まで実行する。 (全てやると通常の最小二乗法) 主成分回帰は分散が大きくなるように 部分最小二乗法は、分散が大きく、応 答変数と相関が高い方向へ [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
14.
選択法と縮小法の比較2つの入力変数X1 とX2 の相関係数がρ 各係数β1 とβ2 の変化をグラフ化 リッジ回帰は連続的に推移する 部分最小二乗法と主成分回帰は、途中で急 に変化するが、ほぼリッジと似た推移 最良部分集合選択は行き過ぎてから戻る lassoは中間 [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]FIGURE
3.18
15.
選択法と縮小法の比較 どれも似た推移 部分最小二乗法と主成分回帰は、今回もほ ぼリッジと似た推移 リッジ回帰は連続的な推移なので好ましい lassoはリッジと最良部分集合選択の中間的 な性質 ■まとめ [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
16.
3.7は飛ばして ...
17.
関連するアルゴリズムについて ● 逐次前向き段階的回帰 ● 区分的線形解追跡アルゴリズム ●
ダンツィク選択器 ● グループlasso
18.
逐次前向き段階的回帰 残差と最も相関の高い変数の係数を更新(更新幅=ε) 残差rと最も相関の高いxを見つける 係数と残差を更新する 残差と説明変数の相関がなくなるまで繰り返す [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
19.
逐次前向き段階的回帰 ε=0.01のときの係数軌跡 ε→ 0
の場合の係数経路 → lassoと同じ [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
20.
区分的線形解追跡アルゴリズム ...
21.
ダンツィク選択器 はL∞ ノルムで、ベクトル要素の絶対値の最大値 lassoの二乗誤差損失を最大絶対値で置き換えた形 現在の残差と全ての説明変数との内積の最大値を最小化しようとする。 ↔ lassoは、残差と使用済み変数との内積を維持しつつ残差二乗和を減少させるように更新する lassoに比べると内積の最大値は小さくなることが多い。 全ての説明変数との内積=選択済みの変数以外も含む だから相関が低い変数も含んでしまうので予 測誤差が大きくなることがある
22.
グループlasso 同じグループの説明変数を同時に縮小・選択する
23.
lassoの性質 係数について、lassoの縮小は非ゼロ係数の推定に対して0に向かうバイアスをかける。 標本数が増えても、推定値が真値に収束するとは限らない。 → 非ゼロ係数の特定のためだけにlassoを使って、選択された変数で線形モデルを当てはめる方法もアリ 当てはめるモデルにlassoを使うこともできて、緩和lassoという。 (2段目のlassoでは、係数はそれほど縮小されない。) 大きな係数をあまり縮小しないように罰則関数を変えるバージョンもある → 「平滑打ち切り絶対偏差(SCAD)罰則」と呼ばれる を
に置き換える。 大きなβに対する縮小幅 を減少させる
24.
lassoの性質 SCADは非凸なので計算が困難 そこで、適応的lasso という重み付き罰則 これを使うと、凸性を残しつつ、一致性を持った係数推定ができる。 [ https://web.stanford.edu/~hastie/Papers/ESLII.pdf ]
25.
総当たり座標最適化 lasso解を、単純な座標降下法で求める。 の罰則パラメータλを固定して、パラメータ一つずつについて 他のパラメータの値を固定して最適化を行う。 βj を分離して 部分残差 を目的変数とした1変数lassoとみなせる。 更新式は、 係数が収束するまで、更新式を各変数に順に適用していくと、lasso推定値が得られる。
Download now