SlideShare a Scribd company logo
1 of 8
Download to read offline
3.1.4 正則化最小二乗法に入る前に
41
1章にて多項式フィッティングの過学習が紹介
訓練データにすべ
て対応してるが真
の函数(緑線)は捉
えられてない
3.1.4 正則化最小二乗法には入る前に
42
パラメータの次数が大きくなるのを防ぐ
→罰則項をつける(正則化)
罰則項
こんな感じや
3.1.4 正則化最小二乗法
正則化について議論
二乗誤差 に正則化項 を加える
43
誤差関数
誤差関数を展開してwで微分
展開
wについて微分 (行列の微分はmatrix cookbookで)
上=0を解く
44
実は疑似逆行列のランク補正している
非正規行列なので、逆行列が計算できない可能性がある
正則化で計算できるよう補正しているのだ 45
疑似逆行列
より一般的な正則化項
一般的な正則化項の式
46
lasso ridge
Lasso : Least absolute shrinkage and selection operator
lassoは, スパース(疎)な解が得られるという話がある
スパースで何がうれしいのか?
毎回この図でてくるけど何なん? 47
lassoridge
そろそろ理解したいぜ
(M=2の時の図らしい)
青線 : 正則化されていない誤差関数の等高線
赤線で囲まれた領域 : 正則化項の制約条件を満たす領域
48
lassoridge 青と赤が満たすのが誤差最小化条件
ridge :
lasso :
条件が減る = 次元が減る
→特徴量も減る(変数選択)
→モデル推定と変数選択を一括

More Related Content

What's hot

はじめてのKrylov部分空間法
はじめてのKrylov部分空間法はじめてのKrylov部分空間法
はじめてのKrylov部分空間法tmaehara
 
論文の図表レイアウト例
論文の図表レイアウト例論文の図表レイアウト例
論文の図表レイアウト例Sunao Hara
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)tn1031
 
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...Deep Learning JP
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Satoshi Kato
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
報酬設計と逆強化学習
報酬設計と逆強化学習報酬設計と逆強化学習
報酬設計と逆強化学習Yusuke Nakata
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution DistillationDeep Learning JP
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別Hiroshi Nakagawa
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRMLKatsuya Ito
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景Deep Learning JP
 
R-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れR-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れKazuki Motohashi
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度Seiichi Uchida
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足Hiromasa Ohashi
 
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...Deep Learning JP
 

What's hot (20)

はじめてのKrylov部分空間法
はじめてのKrylov部分空間法はじめてのKrylov部分空間法
はじめてのKrylov部分空間法
 
論文の図表レイアウト例
論文の図表レイアウト例論文の図表レイアウト例
論文の図表レイアウト例
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
 
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
報酬設計と逆強化学習
報酬設計と逆強化学習報酬設計と逆強化学習
報酬設計と逆強化学習
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
Gurobi python
Gurobi pythonGurobi python
Gurobi python
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
R-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れR-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れ
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足
 
Group normalization
Group normalizationGroup normalization
Group normalization
 
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
 

More from Arata Honda

Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解するArata Honda
 
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話Arata Honda
 
Config mapについて
Config mapについてConfig mapについて
Config mapについてArata Honda
 
Excite beer bash06
Excite beer bash06Excite beer bash06
Excite beer bash06Arata Honda
 
はじめてのパターン認識第八章
はじめてのパターン認識第八章はじめてのパターン認識第八章
はじめてのパターン認識第八章Arata Honda
 
はじめてのパターン認識第三章
はじめてのパターン認識第三章はじめてのパターン認識第三章
はじめてのパターン認識第三章Arata Honda
 
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析Arata Honda
 
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うArata Honda
 

More from Arata Honda (10)

Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解する
 
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話
 
Config mapについて
Config mapについてConfig mapについて
Config mapについて
 
Excite beer bash06
Excite beer bash06Excite beer bash06
Excite beer bash06
 
はじめてのパターン認識第八章
はじめてのパターン認識第八章はじめてのパターン認識第八章
はじめてのパターン認識第八章
 
はじめてのパターン認識第三章
はじめてのパターン認識第三章はじめてのパターン認識第三章
はじめてのパターン認識第三章
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析
 
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
 
Prml6
Prml6Prml6
Prml6
 

正則化項について