SlideShare a Scribd company logo
1 of 43
PRML第一章
ガウス分布の最尤推定~ベイズ曲線フィッティング
立命館大学理工学部数理科学科3回生 谷口泰地
ガウス分布の最尤指定
• ガウス分布のおさらい
𝑃 𝑥 𝜇, 𝜎 =
1
2𝜋 𝜎
exp{−
𝑥 − 𝜇 2
2𝜎2
}
ガウス分布の最尤指定
…………
𝑥1 𝑥2 𝑥3 𝑥 𝑛−2 𝑥 𝑛−1 𝑥_𝑛
n個のサンプルが得られたとする。
ガウス分布の最尤指定
対数尤度関数
L 𝜇, 𝜎2
= ln Π 𝑖=1
𝑖=𝑛
𝑝 𝑥𝑖 𝜇, 𝜎2
= ln(Π 𝑖=1
𝑖=𝑛 𝟏
𝟐𝝅 𝝈
𝒆𝒙𝒑 −
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈
𝟐
)
𝑃 𝑥 𝜇, 𝜎 =
1
2𝜋 𝜎
exp{−
𝑥 − 𝜇 2
2𝜎2
}
= −
𝑛
2
ln 2𝜋 −
𝑛
2
𝑙𝑛 𝜎2
−
𝒊=𝟏
𝒊=𝒏
𝒙𝒊
− 𝝁
𝟐
𝟐𝝈
𝟐
= ln(
𝟏
𝟐𝝅
𝒏
𝝈
𝒏
𝒆𝒙𝒑 −
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈
𝟐
)
こいつを最大化するのであった。
ガウス分布の最尤指定
対数尤度関数
𝑎𝑟𝑔𝑚𝑎𝑥 𝜇,𝜎 L(𝜇, 𝜎)
𝝁について偏微分 𝝈について偏微分
ガウス分布の最尤指定
対数尤度関数
𝝁について偏微分
𝝏
𝝏𝝁
𝑳 𝝁, 𝝈 𝟐 =
𝝏
𝝏𝝁
−
𝒏
𝟐
𝒍𝒏 𝟐𝝅 −
𝒏
𝟐
𝒍𝒏 𝝈 𝟐 −
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈 𝟐
𝟐 𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐𝝈 𝟐
= 𝟎 →
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝒏𝝁 = 𝟎 → 𝝁 =
𝒊=𝟏
𝒊=𝒏
𝒙𝒊
𝒏
=
𝟐 𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐𝝈 𝟐
サンプル平均
ガウス分布の最尤指定
対数尤度関数
𝝈について偏微分
𝝏
𝝏𝝈
𝑳 𝝁, 𝝈 =
𝝏
𝝏𝝁
−
𝒏
𝟐
𝒍𝒏 𝟐𝝅 −
𝒏
𝟐
𝒍𝒏 𝝈 𝟐 −
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈 𝟐
−
𝒏
𝝈
+
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝝈 𝟑
= 𝟎 → −𝒏𝝈 𝟐 +
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐 = 𝟎 → 𝝈 𝟐 =
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝒏
= −
𝒏
𝟐
𝟐𝝈
𝝈 𝟐
+
𝟐 𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁
𝟐
𝟐𝝈 𝟑
= −
𝒏
𝝈
+
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝝈 𝟑
サンプル分散
ガウス分布の最尤指定
𝝈 𝑴𝑳
𝟐
=
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝒏
𝝁が混じってる
ガウス分布の最尤指定
𝝈 𝑴𝑳
𝟐
=
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝟐
𝒏 𝝁 = 𝝁 𝑴𝑳とすればOK
でも大丈夫!
𝝁 𝑴𝑳 = 𝒊=𝟏
𝒊=𝒏
𝒙 𝒊
𝒏
は𝝈に依存しない!
ガウス分布の最尤指定
𝝈 𝑴𝑳
𝟐
=
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝑴𝑳
𝟐
𝒏
𝝁 𝑴𝑳 =
𝒊=𝟏
𝒊=𝒏
𝒙𝒊
𝒏
ガウス分布の最尤推定解
ガウス分布の最尤指定
𝝁 𝑴𝑳~N 𝜇, 𝜎 としよう。
𝑬[𝝁 𝑴𝑳] = 𝑬 𝒊=𝟏
𝒊=𝒏
𝒙𝒊
𝒏
=
𝟏
𝒏
𝑬 𝒙𝒊 =
𝟏
𝒏
𝒏 𝝁 = 𝝁
しっかり分布の平均に収束してる
ガウス分布の最尤指定
𝝈 𝑴𝑳~N 𝜇, 𝜎 としよう。
𝑬[𝝈 𝑴𝑳] = 𝑬
𝒊=𝟏
𝒊=𝒏
𝒙𝒊 − 𝝁 𝑴𝑳
𝟐
𝒏
=
𝟏
𝒏
{ 𝑬 { 𝒙𝒊 − 𝝁 − (𝝁 𝑴𝑳−𝝁)}^𝟐 }
=
𝟏
𝒏
{𝑬 𝒙𝒊 − 𝝁 𝟐
− 𝟐 𝒙𝒊 − 𝝁 𝝁 𝑴𝑳 − 𝝁 + 𝝁 𝑴𝑳 − 𝝁 𝟐
}
=
𝟏
𝒏
𝑬 𝒙𝒊 − 𝝁 𝟐 −
𝟐
𝒏
𝑬[ 𝝁 𝑴𝑳 − 𝝁 𝒙𝒊 − 𝝁 ] +
𝟏
𝒏
𝑬[ 𝝁 𝑴𝑳 − 𝝁 𝟐]
=
𝟏
𝒏
𝒏𝝈 𝟐 −
𝟐
𝒏
𝑬 (𝝁 𝑴𝑳−𝝁 𝒏(𝝁 𝑴𝑳 − 𝝁)] +
𝟏
𝒏
𝝈 𝟐
= 𝝈 𝟐 −
𝟐
𝒏
𝝈 𝟐 −
𝟏
𝒏
𝝈 𝟐 = 𝝈 𝟐 −
𝟏
𝒏
𝝈 𝟐 =
𝒏 − 𝟏
𝒏
𝝈^𝟐
𝝈 𝟐
になってな
い(´;ω;`)
ガウス分布の最尤指定
𝑬 𝝈 𝑴𝑳
𝟐
=
𝒏 − 𝟏
𝒏
𝝈^𝟐
𝝈 𝑴𝑳
𝟐
=
(𝒙𝒊−𝝁)^𝟐
𝒏 − 𝟏
とすれば𝑬 𝝈 𝑴𝑳
𝟐
= 𝝈 𝟐となる
不変推定量といいます。
曲線フィッティング
曲線フィッティング
• N個のサンプル𝑥 = 𝑥1, 𝑥2, … , 𝑥 𝑁
𝑇
、それに対応する𝑡 =
𝑡1, 𝑡2, … , 𝑡 𝑁
𝑇が得られた時、新たな実現値xに対して、対応す
るtを予測したい。
x
t
曲線フィッティング
準備 線形モデル
𝒚 = 𝒘 𝟎 + 𝒘 𝟏 𝝓 𝒙 + 𝒘 𝟐 𝝓 𝒙 𝟐
+ … + 𝒘 𝒏 𝝓 𝒙 𝒏
=
𝒊=𝟎
𝒊=𝒏
𝒘𝒊 𝝓(𝒙)𝒊
今回は𝝓𝒊 𝒙 = 𝒙𝒊
を使う
曲線フィッティング
準備
線形モデル
𝒚 = 𝒘 𝟎 + 𝒘 𝟏 𝒙 + 𝒘 𝟐 𝒙 𝟐
+ … + 𝒘 𝒏 𝒙 𝒏
=
𝒊=𝟎
𝒊=𝒏
𝒘𝒊 𝒙𝒊
パラメータ𝑾が与えられた時の𝒙の値を𝒚(𝐱|𝐰)と書
くことにする
曲線フィッティング
• N個のサンプルt = 𝑡1, 𝑡2, … , 𝑡 𝑁
𝑇が𝑦(𝑥|𝑤) + 𝑁(𝑡|0, 𝛽−1)に従う
とする。つまり
•∀𝒊 ∈ 𝟏, 𝟐, … , 𝑵 , 𝒕𝒊 ~ 𝑵(𝒕|𝒚 𝒙 𝒘 , 𝜷−𝟏
)である。
𝛽を精度パラメータということにする(分散の逆数)
曲線フィッティング
• 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
とおく。
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
データが𝑃(𝑡|𝑥, 𝑤, 𝛽)から独立に得られたとする
対数尤度関数
𝑳 𝒘, 𝜷 = 𝒍𝒏𝒑 𝒕 𝒙, 𝒘, 𝜷 = −
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
+
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥𝐧(𝟐𝝅)
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
対数尤度関数
𝑳 𝒘, 𝜷 = 𝒍𝒏𝒑 𝒕 𝒙, 𝒘, 𝜷 = −
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
+
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥𝐧(𝟐𝝅)
→
𝝏
𝝏𝒘
−
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐 = 𝟎 →
𝝏
𝝏𝒘
= 0
𝝏
𝝏𝒘
𝑳 𝒘, 𝜷 = 𝟎 → =
𝝏
𝝏𝒘
−
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐 +
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥 𝐧 𝟐𝝅 = 𝟎
𝟏
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
二乗和誤差
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
対数尤度関数
𝑳 𝒘, 𝜷 = 𝒍𝒏𝒑 𝒕 𝒙, 𝒘, 𝜷 = −
𝜷
𝟐
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
+
𝑵
𝟐
𝒍𝒏𝜷 −
𝑵
𝟐
𝐥𝐧(𝟐𝝅)
𝝏
𝝏𝜷
𝑳 𝒘, 𝜷 = 𝟎 →
𝟏
𝜷
=
𝟏
𝑵
𝒚 𝒙 𝒏, 𝒘 − 𝒕 𝒏
𝟐
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
wに関する事前分布を
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏 𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻 𝒘
というガウス分布(共役分布)に従うとする。
Wの数がMとして、M+1次元ガウス分布!
事前分布のパラメータをハイ
パーパラメータという
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
パラメータの事前分布尤度事後分布
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏
𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻
𝒘
= 𝒍𝒏
𝜷
𝟐𝝅
𝒆𝒙𝒑(−
𝜷 𝒕 − 𝒚 𝒙 𝒘
𝟐
𝟐
)
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻 𝒘
𝑳 𝒘, 𝜷 = 𝒍𝒏 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑 𝒘 𝜶
対数尤度関数
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏
𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻
𝒘
= 𝑎𝑟𝑔 𝑚𝑎𝑥 𝑙𝑛
𝛽
2𝜋
𝑒𝑥𝑝(−
𝛽 𝑡 − 𝑦 𝑥 𝑤
2
2
)
𝛼
2𝜋
𝑀+1
2
𝑒𝑥𝑝 −
𝛼
2
𝑤 𝑇 𝑤
𝑎𝑟𝑔 𝑚𝑎𝑥 𝐿 𝑤, 𝛽 = 𝑎𝑟𝑔 𝑚𝑎𝑥 𝑙𝑛 𝑝 𝑡 𝑥, 𝑤, 𝛽 𝑝 𝑤 𝛼
対数尤度関数の最大化
= 𝒂𝒓𝒈 𝒎𝒂𝒙 𝒍𝒏
𝜷
𝟐𝝅
+ 𝒍𝒏
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
−
𝜷 𝒕 − 𝒚 𝒙 𝒘
𝟐
𝟐
+ −
𝜶
𝟐
𝒘 𝑻
𝒘 = argmax −
𝜷
𝟐
𝒕 − 𝒚 𝒙 𝒘
𝟐
+ −
𝜶
𝟐
𝒘 𝑻
𝒘
曲線フィッティング • 𝑷 𝒕 𝒙, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝒙 𝒘 , 𝜷−𝟏
ベイズ的アプローチ1
𝒑 𝒘 𝒙, 𝒕, 𝜶, 𝜷 ∝ 𝒑 𝒕 𝒙, 𝒘, 𝜷 𝒑(𝒘|𝜶)
𝑷 𝒘 𝜶 = 𝑵 𝒘 𝟎, 𝜶−𝟏
𝑰 =
𝜶
𝟐𝝅
𝑴+𝟏
𝟐
𝒆𝒙𝒑 −
𝜶
𝟐
𝒘 𝑻
𝒘
−
𝜷
𝟐
𝒕 − 𝒚 𝒙 𝒘
𝟐
+ −
𝜶
𝟐
𝒘 𝑻
𝒘 元の尤度関数にパラメータの指数部分が足されているだけ。
このように事後分布で最尤推定することをMAP推定といいます。
曲線フィッティング
ベイズ的アプローチ2
MAP推定では、事後確率のwについて推定を行った。(点推定)
全てのwを考慮した推定を行いたい。
曲線フィッティング
ベイズ的アプローチ2
𝒑 𝒕 𝑥, 𝒙, 𝒕 = ∫ 𝒑 𝐭 𝑥, 𝐰 𝐝𝐰𝐩 𝐰 𝐱, 𝐭
事後分布
• 𝑷 𝒕 𝑥, 𝒘, 𝜷 = 𝑵 𝒕 𝒚 𝑥 𝒘 , 𝜷−𝟏
𝛽はちょっと省くね。。。
Wについて積分することでWの平均を使う
𝑬 𝒑(𝒘|𝒙,𝒕) [𝒑(𝒕|𝒙, 𝒘)]
曲線フィッティング
ベイズ的アプローチ2
𝒑 𝒕 𝑥, 𝒙, 𝒕 = 𝑵(𝒕|𝒎 𝑥 , 𝒔 𝟐 𝑥 )
𝒎 𝒙 = 𝜷𝝓 𝒙 𝑻
𝑺 𝝓 𝒙 𝒏 𝒕 𝒏
𝑺 𝟐
𝒙 = 𝜷−𝟏
+ 𝝓 𝒙 𝑻
𝑺 𝝓 𝒙
S−𝟏
= 𝜶𝑰 + 𝜷 𝝓 𝒙 𝒏
𝑻
𝝓 𝒙 𝒏
𝝓𝒊 𝒙 = 𝒙𝒊
積分結果はガウス分布になる
曲線フィッティング
ベイズ的アプローチ2 実装編
1.平均𝒎(𝒙)の計算
2.分散𝒔 𝟐
(𝒙)の計算
3. 𝑵(𝒕|𝒎 𝒙 , 𝒔 𝟐
𝒙 )の計算
曲線フィッティング ベイズ的アプローチ2 実装編
3次多項式で近似した。
order=4
曲線フィッティング ベイズ的アプローチ2 実装編
3次多項式で禁止した。
order=4
orderを増やしていけばどうなるか。。。?
曲線フィッティング ベイズ的アプローチ2 実装編
曲線フィッティング ベイズ的アプローチ2 実装編
orderが上がれば上がるほど過学習していることがわかる。
曲線フィッティング ベイズ的アプローチ2 実装編
サンプルを増やしてみる。orderを上げてみよう!
曲線フィッティング ベイズ的アプローチ2 実装編
曲線フィッティング ベイズ的アプローチ2 実装編
orderが上がっても過学習しにくい。<-サンプル数が多いから
コードはgithub
• https://github.com/takutori/Implementation/tree/master/M
L/Regression
おまけ
次元の呪い
lim
𝑑→∞
𝐸
𝑑𝑖𝑠𝑡 𝑚𝑎𝑥 𝑑 − 𝑑𝑖𝑠𝑡 𝑚𝑖𝑛(𝑑)
𝑑𝑖𝑠𝑡 𝑚𝑖𝑛(𝑑)
= 0
Reference
• パターン認識と機械学習 C.M. ビショップ
• https://qiita.com/tn1031/items/96e7131cd41df1aebe85

More Related Content

What's hot

グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」Keisuke Sugawara
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Shohei Taniguchi
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)tetsuro ito
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門佑馬 斎藤
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)Motoya Wakiyama
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 

What's hot (20)

グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 

Similar to Prml 最尤推定からベイズ曲線フィッティング

場の量子論
場の量子論場の量子論
場の量子論M M
 
表現論 ゼミ資料
表現論 ゼミ資料表現論 ゼミ資料
表現論 ゼミ資料HanpenRobot
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現Kazu Ghalamkari
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法kenyanonaka
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データemonosuke
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)TakaakiYonekura
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章hakusai
 
人生を豊かにする線形代数学
人生を豊かにする線形代数学人生を豊かにする線形代数学
人生を豊かにする線形代数学Fumiya Watanabe
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valuesatanic
 
Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric groupHanpenRobot
 
コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節nonane
 

Similar to Prml 最尤推定からベイズ曲線フィッティング (20)

Prml1.2.4
Prml1.2.4Prml1.2.4
Prml1.2.4
 
場の量子論
場の量子論場の量子論
場の量子論
 
表現論 ゼミ資料
表現論 ゼミ資料表現論 ゼミ資料
表現論 ゼミ資料
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章
 
人生を豊かにする線形代数学
人生を豊かにする線形代数学人生を豊かにする線形代数学
人生を豊かにする線形代数学
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic value
 
双対性
双対性双対性
双対性
 
PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
 
Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric group
 
コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節コンピュータビジョン最先端ガイド6 第2章:4~4.2節
コンピュータビジョン最先端ガイド6 第2章:4~4.2節
 

More from takutori

slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案takutori
 
Slack data Analysis
Slack data AnalysisSlack data Analysis
Slack data Analysistakutori
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 

More from takutori (9)

slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
slackの会話ネットワークの分析、及びチャネル内活性化指標の提案
 
Slack data Analysis
Slack data AnalysisSlack data Analysis
Slack data Analysis
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
T-sne
T-sneT-sne
T-sne
 
Dijkstra
DijkstraDijkstra
Dijkstra
 
Heap
HeapHeap
Heap
 
T-sne
T-sneT-sne
T-sne
 
Kernel
KernelKernel
Kernel
 
Bayes
BayesBayes
Bayes
 

Prml 最尤推定からベイズ曲線フィッティング

Editor's Notes

  1. 曲線y(x|w)からN(t|0,\beta)に従う\epsilonだけ足されていると思えばよい