SlideShare a Scribd company logo
神戸 之法
猫でも分かりたい
線形回帰
分散の不偏推定量を求めるとき、
偏差平方和をn-1で割るのはなぜ
かにゃ?
重回帰分析の残差の自由度が、
n-p-1なのはなぜかにゃ?
-残差の自由度-
自己紹介と本スライドの目的
↑この猫はフリーイラスト
・神戸 之法
・京大院 → 保険等の金融機関
→ 医療系のデータ分析(予定)
・統計学が好き(得意とは言っていない)
自己紹介
・数学、物理が好き(得意とは言っていない)
スライドの目的
・そろそろ線形回帰の自由度って何なのかちゃんと勉強しようと思って作成
(間違いがあったら教えてください。。直します)
・想定読者は、幾何学的に線形回帰における最小二乗法を理解したい人
線形回帰ってなんだろうって人
ご意見先:kambeyu2019@gmail.com
・途中の数式は読み飛ばしてもOK
・今回が初投稿
実数値をとるn個の観測データ𝑦𝑖を縦に並べたベクトル𝒚を考えると、
自由度とは(1)
𝒚 =
𝑦1
𝑦2
⋮
𝑦 𝑛
= 𝑦1 𝒆 𝟏 + 𝑦2 𝒆 𝟐 + ⋯ + 𝑦 𝑛 𝒆 𝒏 =
1 ⋯ 0
⋮ ⋱ ⋮
0 ⋯ 1
𝑦1
𝑦2
⋮
𝑦 𝑛
= 𝑰 𝒏 𝒚
𝒆 𝟏 =
1
0
⋮
0
𝒆𝒊は単位ベクトル
n個の観測データ𝒚は、𝑹 𝒏のn個の標準基底の和で表現できるので、𝒚 ∈ 𝑹 𝒏
言い換えると、n個の観測データは、n次元ベクトル空間の1要素である
このベクトル空間の次元nを自由度と呼ぶ
自由度とは(2)
例)コイントス
表:1, 裏:0 としたとき、コインを3回投げたとき取りえる事象は、
0
0
0
,
0
1
0
,
0
0
1
,
0
1
1
,
1
0
0
,
1
1
0
,
1
0
1
,
1
1
1
となり、23
= 8個の事象が考えられる。 0,1 = 𝑩とすると、コイントスの
事象𝒚は、𝒚 ∈ 𝑩 𝟑
である
幾何学的に考えると、立方体の頂点の一つが取りえる事象である
線形回帰の残差の自由度(1)
n個の観測データ𝒚が、別の観測データ𝒙の線形和で表されるとき、
𝒚の残差の自由度はどうなるのだろうか?
【問題】
𝑦1
𝑦2
⋮
𝑦 𝑛
=
1
1
⋮
1
𝑥11
𝑥12
⋮
𝑥1𝑛
𝑥21
𝑥22
⋮
𝑥2𝑛
𝛽0
𝛽1
𝛽2
+
𝜖1
𝜖2
⋮
𝜖 𝑛
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1𝑖 + 𝛽2 𝑥2𝑖 + 𝜖𝑖
𝒚 = 𝑿𝜷 + 𝝐
自由度n 自由度はいくつ?
𝑿:説明変数がp個(上の例は2個)のとき、n×(p+1)行列
直観的には、n×(p+1)行列 𝑿 は、線形写像 𝑓: 𝑹 𝒏
→ 𝑹 𝒑+𝟏
であることを考えれば、
残りの誤差は、n-(p+1)の次元を持ちそうである
本当?
(線形回帰の色々な表現)
線形回帰の残差の自由度(2)
𝑦1
𝑦2
⋮
𝑦 𝑛
=
1
1
⋮
1
𝑥11
𝑥12
⋮
𝑥1𝑛
𝑥21
𝑥22
⋮
𝑥2𝑛
𝛽0
𝛽1
𝛽2
+
𝜖1
𝜖2
⋮
𝜖 𝑛
直観的には、n×(p+1)行列 𝑿 は、線形写像 𝑓: 𝑹 𝒏
→ 𝑹 𝒑+𝟏
であることを考えれば、
残りの𝝐は、n-(p+1)の次元を持ちそうである
残差の自由度は 𝜷に依存しそう
しかし、𝛽0 = 𝛽1 = 𝛽2 = 0の時を考えると、そうでもない気もする
𝜷は、どのように決めるのであったか?
最小二乗法
仮に、観測値𝒚に依存せず、𝜷が既に決まっている(定数)とすると、𝝐の自由度
は𝒚の自由度と同じnになりそう
𝑬 𝝐 = 𝟎, 𝑽 𝝐 = 𝜎2
𝑰 𝒏
線形回帰の残差の自由度(3)
𝒚 = 𝑿𝜷 + 𝝐 のとき、偏差平方和𝑄(𝜷) 𝜖𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1 − 𝛽2 𝑥2を偏差と呼ぶ
最小二乗法
𝑄 𝜷 = ෍
𝒊
𝜖𝑖
2
= 𝝐 𝑻
𝝐 = 𝒚 − 𝑿𝜷 𝑻
𝒚 − 𝑿𝜷 = 𝒚 − 𝑿𝜷 𝟐
を最小とする𝜷を求める(最小二乗推定量 ෡𝜷 )
𝜕𝑄 𝜷
𝜕𝜷
= −2𝑿 𝑻
𝒚 − 𝑿𝜷 = −2 𝑿 𝑻
𝒚 − 𝑿 𝑻
𝑿𝜷 =𝟎
𝜷 = ෡𝜷 = 𝑿 𝑻
𝑿
−𝟏
𝑿 𝑻
𝒚
𝒚 = 𝑿෡𝜷 + 𝒆 = 𝑿 𝑿 𝑻
𝑿
−𝟏
𝑿 𝑻
𝒚 + 𝒆 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚
よって、 𝒆 = 𝒚 − 𝑿෡𝜷とすれば、
ここで、𝑯 = 𝑿 𝑿 𝑻
𝑿
−𝟏
𝑿 𝑻
とし、これをハット行列と呼ぶ
また、𝒆 = 𝑰 − 𝑯 𝒚 となる
問題は、残差𝒆の自由度を求めることだった
線形回帰の残差の自由度(4)
ハット行列の性質
𝑯 = 𝑿 𝑿 𝑻
𝑿
−𝟏
𝑿 𝑻
は、以下の性質を満たす
𝑯2
= 𝑯 より、𝑯は射影行列
𝑰 − 𝑯 𝟐
= 𝑰 − 𝑯 より、 𝑰 − 𝑯も射影行列
𝑯 𝑰 − 𝑯 = 𝑯 − 𝑯 𝟐
= 𝑯 − 𝑯 = 𝑶より、 𝑰 − 𝑯 𝒚は 𝑯𝒚と直交する
𝑯𝑿 = 𝑿 𝑿 𝑻
𝑿
−𝟏
𝑿 𝑻
𝑿 = 𝑿
𝒚 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚
𝑯𝒚は、𝑿で張られる空間への𝒚の射影である
残差 𝒆 = 𝑰 − 𝑯 𝒚 の次元を知るには、行列𝑯のrankが分かれば良い
𝐹:𝒚 ↦ 𝑯𝒚 rank𝑯 =dim(ImF)
残差𝒆の自由度 = 𝑛 − rank𝑯
𝑛 = rank𝑯 + rank(𝑰 − 𝑯)
線形回帰の残差の自由度(5)
𝒚 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚
rank𝑯 =rank 𝑸−𝟏
𝑯𝑸 = rank diag 1,1, … , 1,0, … , 0 = 𝑟
𝑯𝒖𝒊 = 𝜆𝑖 𝒖𝒊 のとき、
射影行列の固有値は、1または0である
𝑯𝒖𝒊
𝑻
𝑯𝒖𝒊 = 𝜆𝑖
2
𝒖𝒊
𝑻
𝒖𝒊
𝑯𝒖𝒊
𝑻
𝑯𝒖𝒊 = 𝒖𝒊
𝑻
𝑯 𝑻
𝑯𝒖𝒊 = 𝒖𝒊 𝑯 𝟐
𝒖𝒊 = 𝒖𝒊 𝑯𝒖𝒊 = 𝜆𝑖 𝒖𝒊
𝑻
𝒖𝒊
よって、𝜆𝑖
2
= 𝜆𝑖 より、射影行列の固有値は、1または0である
𝑸−𝟏
𝑯𝑸 = diag{1,1, … , 1,0, … , 0}
よって、射影行列𝑯は、正則行列𝑸により以下のように変換できる
いま、𝑯のrankを𝑟とすると、
tr𝑯 =tr 𝑯𝑸𝑸−𝟏
=tr 𝑸−𝟏
𝑯𝑸 = tr diag 1,1, … , 1,0, … , 0 = 𝑟
rank𝑯 = tr𝑯 = tr 𝑿 𝑿 𝑻
𝑿
−𝟏
𝑿 𝑻
= tr 𝑿 𝑻
𝑿 𝑿 𝑻
𝑿
−𝟏
= tr𝑰 𝒑+𝟏 = 𝑝 + 1
よって、
以上より、𝒆 = 𝑰 − 𝑯 𝒚の自由度は、𝑛 − 𝑝 − 1
残差𝒆の自由度
𝑹 𝒏
𝑿෡𝜷 = 𝑯𝒚
𝒆 = 𝑰 − 𝑯 𝒚
𝒚
𝟎
𝑿の列が張る空間
(p+1次元)
線形回帰の残差の自由度(6)
𝒚 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚
ここまでのまとめ
𝒚 = 𝑿෡𝜷 + 𝒆 = 𝑿𝜷 + 𝝐
自由度n
自由度p+1 自由度n-p-1
𝑸−𝟏
𝒚 = 𝑸−𝟏
𝑯𝑸𝑸−𝟏
𝒚 + 𝑸−𝟏
𝑰 − 𝑯 𝑸𝑸−𝟏
𝒚
𝑸−𝟏
𝒚 =
𝑰 𝒑+𝟏 𝑶
𝑶 𝑶
𝑸−𝟏
𝒚 +
𝑶 𝑶
𝑶 𝑰 𝒏−𝒑−𝟏
𝑸−𝟏
𝒚
𝒛 = 𝑸−𝟏
𝒚とおくと、
𝒛 =
𝑧1
⋮
𝑧 𝑝+1
0
⋮
0
+
0
⋮
0
𝑧 𝑝+2
⋮
𝑧 𝑛
𝒚 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚より、
自由度n
真の回帰係数
𝒚の観測によらない
例えば 𝒚の母平均𝜇も既知としている
線形回帰の残差の自由度(7)
分散𝜎2の不偏推定量
𝑬 𝒆 𝑻
𝒆 = 𝑬 𝑰 − 𝑯 𝒚
𝑻
𝑰 − 𝑯 𝒚 = 𝑬 𝑰 − 𝑯 𝒚
𝑻
𝑰 − 𝑯 𝑿𝜷 + 𝝐 = 𝑬 𝑰 − 𝑯 𝝐
𝑻
𝑰 − 𝑯 𝝐
𝒚 = 𝑿෡𝜷 + 𝒆 = 𝑿𝜷 + 𝝐
自由度n
自由度p+1 自由度n-p-1
自由度n
真の回帰係数
𝑰 − 𝑯 𝑿 = 𝑶より、
= 𝑬 𝝐 𝑻
𝑰 − 𝑯 𝑻
𝑰 − 𝑯 𝝐 = 𝑬 𝝐 𝑻
𝑰 − 𝑯 𝝐 = 𝑬 tr 𝝐 𝑻
𝑰 − 𝑯 𝝐 = 𝑬 tr 𝑰 − 𝑯 𝝐 𝑻
𝝐
= tr 𝑰 − 𝑯 𝑬 𝝐 𝑻
𝝐 = tr 𝑰 − 𝑯 𝜎2
= 𝑛 − 𝑝 − 1 𝜎2
最小二乗推定量
よって、分散𝜎2
の不偏推定量は、
ො𝜎2
=
𝒆 𝑻
𝒆
𝑛 − 𝑝 − 1
=
1
𝑛 − 𝑝 − 1
෍
𝑖
𝑦𝑖 − ො𝑦𝑖
2
ෝ𝒚 = 𝑿෡𝜷
いま、𝑬 ・ の中身は、スカラー(1×1行列)なので、
𝑬 ・ =𝑬 tr(・)
tr 𝑰 − 𝑯 = rank 𝑰 − 𝑯 = 𝑛 − 𝑝 − 1であるから、残差平方和を残差𝒆の自由度で割ったものになっている
線形回帰の残差の自由度(8)
例)標本分散
𝒙 =
1
1
⋮
1
෠𝛽 + 𝒆 とおくと、𝒆の自由度は n-1
෠𝛽 = 𝑿 𝑻
𝑿
−𝟏
𝑿 𝑻
𝒙 =
1
𝑛
෍
𝑖
𝑥𝑖 = ҧ𝑥
𝒆 = 𝒙 − ෝ𝒙 =
𝑥1 − ҧ𝑥
𝑥2 − ҧ𝑥
⋮
𝑥 𝑛 − ҧ𝑥
よって、分散𝜎2
の不偏推定量は、
ො𝜎2
=
𝒆 𝑻
𝒆
𝑛 − 𝑝 − 1
=
1
𝑛 − 1
෍
𝑖
𝑥𝑖 − ҧ𝑥 2
ෝ𝒙 =
1
1
⋮
1
෠𝛽 =
ҧ𝑥
ҧ𝑥
⋮
ҧ𝑥
= ഥ𝒙
偏差平方和を𝒆の自由度n-1で割ったものになる
rank𝑿 = 1
𝑆2
=
1
𝑛
෍
𝑖
𝑥𝑖 − ҧ𝑥 2
=
𝑛 − 1
𝑛
ො𝜎2
以上より標本分散は、
線形回帰の残差の自由度(9)
例)最小二乗法の最も簡単な具体例(アリの体長)
𝒙 =
2
4
=
1
1
መ𝛽 + 𝒆
無作為に抽出したアリの体長が、2cmと4cmだった
アリの体長の分散の不偏推定量を最小二乗法により求めよ
መ𝛽 = 1 1
1
1
−𝟏
1 1
2
4
=
1
2
2 + 4 = 3 = ҧ𝑥
最小二乗法より、
𝒆 =
2
4
−
3
3
=
−1
1
2個の観測は、2次元ベクトル空間の要素なので、
ො𝜎2
=
𝒆 𝑻
𝒆
𝑛 − 𝑝 − 1
=
2
1
= 2
𝑿𝜷 ∙ 𝒆 = 3 3
−1
1
= 0
1匹目のアリの体長
観測 𝒙
𝑿𝜷 =
1
1
መ𝛽 =
3
3
残差 𝒆 =
−1
1
2
4
【ベクトル𝑿𝜷と𝒆の直交性の確認】
ちなみにハット行列𝑯 =
1
2
1
1
1
1
より、𝑰 − 𝑯 =
1
2
1
−1
−1
1
𝒆 = 𝑰 − 𝑯 𝒙 =
−1
1 と残差を求めることもできる
より、直交している
2次元ベクトル空間上で、 𝑿𝜷と直交するベクトルは、1方向しかない
つまり、残差の自由度が2から1に減少していることが分かる。
2匹目のアリの体長
まとめと参考文献
・線形回帰における最小二乗法は、直角三角形(n次元ベクトル空間における)
をつくること!
・線形回帰における最小二乗法
⇔ 残差ベクトルの長さを最も短くする
⇔ 説明変数の張る空間と残差の張る空間が直交
⇔ 説明変数の張る空間の次元がp+1で、残差の張る空間の次元がn-p-1
参考文献
まとめ

More Related Content

What's hot

【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
joisino
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
Takami Sato
 
Graphic Notes on Linear Algebra and Data Science
Graphic Notes on Linear Algebra and Data ScienceGraphic Notes on Linear Algebra and Data Science
Graphic Notes on Linear Algebra and Data Science
Kenji Hiranabe
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
 
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
 
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
STAIR Lab, Chiba Institute of Technology
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
 

What's hot (20)

【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
Graphic Notes on Linear Algebra and Data Science
Graphic Notes on Linear Algebra and Data ScienceGraphic Notes on Linear Algebra and Data Science
Graphic Notes on Linear Algebra and Data Science
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
 
Rの高速化
Rの高速化Rの高速化
Rの高速化
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 

Similar to 猫でも分かりたい線形回帰の自由度

Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric group
HanpenRobot
 
表現論 ゼミ資料
表現論 ゼミ資料表現論 ゼミ資料
表現論 ゼミ資料
HanpenRobot
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート
Kenji Hiranabe
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
 
120510サブゼミ数学(2)-1
120510サブゼミ数学(2)-1120510サブゼミ数学(2)-1
120510サブゼミ数学(2)-1
takemuralab
 
Gmm勉強会
Gmm勉強会Gmm勉強会
Gmm勉強会
Hayato Ohya
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
Shuyo Nakatani
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
Akira Asano
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
Akira Asano
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
 
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現
Kazu Ghalamkari
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
Akira Asano
 
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
Akira Asano
 
Time series analysis with python chapter2-1
Time series analysis with python  chapter2-1Time series analysis with python  chapter2-1
Time series analysis with python chapter2-1
ShoKumada
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
Akira Asano
 
グレブナー基底輪読会 #1 ―準備体操の巻―
グレブナー基底輪読会 #1 ―準備体操の巻―グレブナー基底輪読会 #1 ―準備体操の巻―
グレブナー基底輪読会 #1 ―準備体操の巻―
Yutaka Nagahata
 
Prml1.2.4
Prml1.2.4Prml1.2.4
Prml1.2.4
Tomoyuki Hioki
 

Similar to 猫でも分かりたい線形回帰の自由度 (20)

Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric group
 
表現論 ゼミ資料
表現論 ゼミ資料表現論 ゼミ資料
表現論 ゼミ資料
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
120510サブゼミ数学(2)-1
120510サブゼミ数学(2)-1120510サブゼミ数学(2)-1
120510サブゼミ数学(2)-1
 
Gmm勉強会
Gmm勉強会Gmm勉強会
Gmm勉強会
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
 
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
 
Time series analysis with python chapter2-1
Time series analysis with python  chapter2-1Time series analysis with python  chapter2-1
Time series analysis with python chapter2-1
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
 
グレブナー基底輪読会 #1 ―準備体操の巻―
グレブナー基底輪読会 #1 ―準備体操の巻―グレブナー基底輪読会 #1 ―準備体操の巻―
グレブナー基底輪読会 #1 ―準備体操の巻―
 
Prml1.2.4
Prml1.2.4Prml1.2.4
Prml1.2.4
 

猫でも分かりたい線形回帰の自由度