SlideShare a Scribd company logo
1 of 39
Download to read offline
1/39
MCMCと
ともだちになろう
武藤 拓之
立命館大学OIC総合研究機構/日本学術振興会
2/39
この資料について
– 『社会科学のためのベイズ統計モデリング』の
第4章「MCMC」の内容をベースに,
MCMCの仕組みについて解説します。
– この資料は,2020年2月23日に
川崎医科大学総合医療センターで行われた
「ベイズ統計学勉強会2020年春合宿」の
発表で用いたスライドを修正したものです。
– この資料の文責は武藤にあります。もし間違いがありましたら
Twitter等でご指摘頂けますと幸いです。
3/39
自己紹介
⚫ 武藤 拓之 (Hiroyuki Muto)
• 立命館大学OIC総合研究機構/日本学術振興会特別研究員 (PD)
⚫ 現在の主な研究テーマ
• 空間的思考を支える認知メカニズムとその身体性の解明
• 高齢者における認知過程の加齢変化のメカニズムの解明
• 統計モデリングを用いた様々な認知過程の数理表現とその応用
⚫ 著書
• 「たのしいベイズモデリング:事例で拓く研究のフロンティア」
(分担執筆,北大路書房)
• 「たのしいベイズモデリング2:事例で拓く研究のフロンティア」
(分担執筆,北大路書房)
⚫ Webサイト
• 個人サイト:https://mutopsy.net/
• 統計ブログ: http://bayesmax.sblo.jp/
4/39
MCMCとは
MCMCはハァハァ(;´Д`)するらしい
5/39
MCMCとは
MCMCはハァハァ(;´Д`)するらしい
心からハァハァ(;´Д`)するためには
MCMCの仕組みを理解することが
不可欠!
6/39
MCMCとは
◼ マルコフ連鎖モンテカルロ法 (MCMC)
– パラメータを探索する際に,
直前の位置情報を引き継ぎながら (マルコフ連鎖)
目標とする分布から乱数を発生させる (モンテカルロ法)
– 複雑なモデル (e.g., パラメータが多い) であっても
事後分布や事後予測分布を近似できることがある。
(共役事前分布が使えなくてもok)
7/39
事後分布の計算時,周辺尤度は要らない子
– 周辺尤度𝑝(𝑥 𝑛)を解析的に求めるのは難しい
– モデルが所与のとき周辺尤度𝑝(𝑥 𝑛)はサンプル𝑋 𝑛の確率関数
– サンプルの実現値𝑥 𝑛を投入すれば分母の周辺尤度は定数
→ 分子の同時確率分布の情報だけで事後分布が計算可能
𝑝 𝜃 𝑥 𝑛
=
𝑝 𝑥 𝑛
𝜃 𝑝 𝜃
𝑝(𝑥 𝑛)
∝ 𝑝 𝑥 𝑛
𝜃 𝑝 𝜃
事後分布
周辺尤度
確率モデル×事前分布
(同時確率分布)
8/39
メトロポリス・アルゴリズム
◼ メトロポリス・アルゴリズム
– もっとも単純なMCMCのアルゴリズム。
– 以下の手順を踏めば事後分布からの
乱数が得られる。
0. パラメータの初期値𝜃0を与える。
1. パラメータが実現する区間𝜃 ∈ 𝑆上の一様分布から,
次の値の候補𝜃1を1つランダムサンプリングする。
2. 𝜃0と𝜃1の事後オッズ𝑟を計算する。
3. 確率α (𝜃0, 𝜃1) = min{1, 𝑟}で𝜃1に移動し,
確率1 − α (𝜃0, 𝜃1)で𝜃0にとどまる。
4. 新しいパラメータの値を𝜃0として1に戻る。
9/39
つのドリルが当たる確率を推定する
◼ つのドリルとは
– ポケモンの技の1つ。命中率は低いが,
当たれば相手を一撃で倒せる。
– 技を繰り出すポケモンと受けるポケモンが同レベルで,
かつ特性やタイプなどによって無効化されない場合の
命中率は30%に設定されている (ことになっている)。
※初代ポケモン (第一世代) ではレベルではなく素早さに依存するがここでは細かいことは気にしない。
– 今回は,つのドリルの命中率𝜃を未知のパラメータとみなし
メトロポリス・アルゴリズムを使ってデータから𝜃の事後分布を
推定する。
10/39
つのドリルが当たる確率を推定する
◼ データ
– ブログ「のんびりポケモン日記」の2015年7月7日の記事
「【メモ】角ドリルは当たる!? その1」で報告されているデータ
を拝借しました。
http://skpokemonblog.seesaa.net/article/421942352.html
– 環境:ポケットモンスターオメガルビー・アルファサファイア
(第六世代)
– 結果は46試行中18試行で命中 (割合は39.13%)
11/39
つのドリルが当たる確率を推定する
◼ 確率モデル (尤度)
– つのドリルが命中する (𝑥 = 1) かしない (𝑥 = 0) かを
実現値とする確率変数𝑋は,成功確率𝜃をパラメータとする
ベルヌーイ分布に従う。
◼ 事前分布
– 𝜃の事前分布として𝛼 = 𝛽 = 1のベータ分布 (一様分布)
を仮定
𝑝 𝑥 𝑛 𝜃 = ෑ
𝑖=1
𝑛
𝑝 𝑥𝑖 𝜃 = θσ 𝑖 𝑥 𝑖 1 − θ 𝑛−σ 𝑖 𝑥 𝑖
𝑝(𝜃) = Beta(𝜃|1,1)
これらの積が分子の同時確率分布𝑝 𝑥 𝑛
𝜃 𝑝 𝜃
12/39
メトロポリス・アルゴリズムの適用
0. パラメータの初期値𝜽 𝟎を与える。
– 適当に,𝜃0 = 0.50を与えてみる。
1. パラメータが実現する区間𝜽 ∈ 𝑺上の一様分布から,
次の値の候補𝜽 𝟏を1つランダムサンプリングする。
– 今回は0 < 𝜃 < 1なので,(0,1)の一様分布から
乱数を発生させる。
→ たまたま𝜃1 = 0.16が得られた。
ここまではモデルの情報 (尤度・事前分布) は未使用。
13/39
メトロポリス・アルゴリズムの適用
2. パラメータの初期値𝜽 𝟎と𝜽 𝟏の事後オッズ𝒓を計算する。
– 所与の𝜃0と𝜃1とサンプルの実現値 𝑥 𝑛 データ を使って
𝑟を計算する。
→ 𝑟 ≃ 0.0025 が得られた。
– 𝜃1が𝜃0よりも高い事後確率を与えるとき𝑟 > 1となる。
𝑟 =
𝑝 𝜃1 𝑥 𝑛
𝑝 𝜃0 𝑥 𝑛)
=
𝑝 𝑥 𝑛|𝜃1 𝑝 𝜃1
𝑝(𝑥 𝑛)
𝑝 𝑥 𝑛|𝜃0 𝑝 𝜃0
𝑝(𝑥 𝑛)
=
𝑝 𝑥 𝑛|𝜃1
𝑝 𝑥 𝑛|𝜃0
𝑝 𝜃1
𝑝 𝜃0
事後確率の比 ベイズの定理で
変形
周辺尤度を消す
ここで初めてモデルの情報 (尤度・事前分布) を使用。
14/39
メトロポリス・アルゴリズムの適用
3. 確率𝜶(𝜽 𝟎, 𝜽 𝟏) = 𝐦𝐢𝐧{𝟏, 𝒓}で𝜽 𝟏に移動し,
確率𝟏 − 𝜶 (𝜽 𝟎, 𝜽 𝟏)で𝜽 𝟎にとどまる。
4. 新しいパラメータの値を𝜽 𝟎として1に戻る。
– 今回は𝛼(𝜃0, 𝜃1) = min 1,0.0025 = 0.0025なので,
0.25%の確率で𝜃1 = 0.16に移動し,
99.75%の確率で𝜃0 = 0.50にとどまる。
→ その値を新しい𝜃0としてステップ1に戻る。
– 𝜃1が𝜃0よりも高い事後確率を与えるとき𝑟 > 1となり,
そのときは必ずに𝜃1移動する。
– 𝜃1が𝜃0よりも低い事後確率を与えるときであっても,
事後確率の値が近ければ高確率で𝜃1に移動する。
𝜃1があり得なさそうな場合は高確率で𝜃0にとどまる。
15/39
Rで実装
※ブログ記事にコードを
載せています。
http://bayesmax.sblo.jp/ar
ticle/187238305.html
16/39
トレースプロット
– 破線は解析的に求めた事後分布のMAP推定値
– 𝜃が移動したり留まったりしている様子が見て取れる。
– 不安定な初期段階のMCMCサンプルは削除 (バーンイン)
するのがふつう。
初期値
17/39
事後分布
– 解析的に求めた事後分布 (曲線) と
10万個のMCMCサンプルのヒストグラム。(バーンイン期間1000)
– iterationの数を増やすほど正確に事後分布を近似できる。
– MAP推定値は.392
18/39
MCMCサンプリングの比較
– 適切なサンプリングが行われていることを確認するために,
複数のサンプリングを行って結果を比較するのが一般的。
– それぞれのMCMCサンプルをチェーンと呼ぶ。
– 適切なサンプリングが行われていれば,
どのチェーンも同じ事後分布に収束する。
Chain 1
Chain 2
19/39
収束基準
– より客観的な収束基準として最もよく使われているのが ෠𝑅
– 列内分散𝑊と列間分散𝐵を使って次のように定義される。
(𝑊と𝐵の計算方法は省略)
ෞ𝑣𝑎𝑟+ 𝜃 𝑥 𝑛 =
𝑛 − 1
𝑛
𝑊 +
1
𝑛
𝐵
෠𝑅 =
ෞ𝑣𝑎𝑟+ 𝜃 𝑥 𝑛
𝑊
– 列間分散𝐵が十分小さいとき ෠𝑅は1に近づき,
列間分散𝐵が大きいほど ෠𝑅は1よりも大きな値となる。
– 経験的な収束の基準として ෠𝑅 < 1.1がよく用いられる。
チェーン内の分散
全MCMCサンプルの分散
20/39
マルコフ連鎖
– とびとびの離散時間𝑡ごとに状態 (𝑆 = {1,2,3}) が
確率的に変化する状況を考える。
𝑥0 = 3 𝑥1 = 1 𝑥2 = 2 𝑥3 = 1
𝑡 = 0 𝑡 = 1 𝑡 = 2 𝑡 = 3時間
状態 (実現値)
状態 (確率変数) 𝑋0 𝑋1 𝑋2 𝑋3
21/39
マルコフ連鎖
– とびとびの離散時間𝑡ごとに状態 (𝑆 = {1,2,3}) が
確率的に変化する状況を考える。
– 𝑋𝑡+1が𝑋𝑡の実現値のみに依存する確率過程=マルコフ連鎖
𝑥0 = 3 𝑥1 = 1 𝑥2 = 2 𝑥3 = 1
𝑡 = 0 𝑡 = 1 𝑡 = 2 𝑡 = 3時間
状態 (実現値)
状態 (確率変数) 𝑋0 𝑋1 𝑋2 𝑋3
𝑃(𝑋𝑡+1 = 𝑗 𝑋𝑡 = 𝑖 = 𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡 = 𝑖, 𝑋𝑡−1 = 𝑖 𝑡−1, … , 𝑋0 = 𝑖0)
1つ前の状態が所与のとき
今の状態になる確率
これまでの全ての状態が所与のとき
今の状態になる確率
22/39
マルコフ連鎖
– 昼食に何を食べるかが前日の昼食のみに依存する状況
e.g.,
ラーメンを食べた翌日は別のものを食べたくなるが,
チャーハンを食べた翌日の献立はランダムに決まる。
– 毎日の献立の分布はどうなっていくか?
状態 (実現値)
1日目 2日目 3日目 4日目 5日目
23/39
マルコフ連鎖
– 推移確率を有向グラフと推移確率行列で表す。
1
3
1
3
1
3
1
5
1
5
3
5
1
4
1
4
1
2
𝑃 =
1
5
3
5
1
5
1
3
1
3
1
3
1
2
1
4
1
4
※各行の和は必ず1
24/39
マルコフ連鎖
– 𝑡時点で状態𝑖である確率を次のように表す。
𝜋 𝑡 𝑖 = 𝑃 𝑋𝑡 = 𝑖
e.g., 6日目にラーメンを食べる確率= 𝜋6
– 𝑡時点の状態の確率分布を確率ベクトルで表す。
𝝅 𝑡 = 𝜋 𝑡 , 𝜋 𝑡 , 𝜋 𝑡 ※成分の和は1
このスライドに登場した記号の整理
𝑡時点における状態𝑖を実現値とする確率分布𝑋𝑡の中身は以下の通り。
実現値𝑖
確率 𝜋 𝑡 𝜋 𝑡 𝜋 𝑡
3つまとめて
ベクトル𝝅 𝑡で表す。
25/39
マルコフ連鎖
– 𝑡 + 1時点での状態の確率ベクトルは,
𝝅 𝑡+1 = 𝝅 𝑡 𝑃
– 初期時点𝑡 = 0における状態の確率ベクトルを
𝝅0 = (1, 0, 0)
と仮定すると (i.e., 計測開始日はラーメンを食べた),
翌日の状態の確率ベクトルは,
𝝅1 = 𝝅0 𝑃 = (1,0,0)
1
5
3
5
1
5
1
3
1
3
1
3
1
2
1
4
1
4
= (1
5
, 3
5
, 1
5
)
1つ前の状態の確率ベクトル
推移確率行列
ラーメンを食べた翌日の
推移確率
26/39
マルコフ連鎖
– 𝑡をどんどん進めていくと……
𝝅0 = 1, 0, 0
𝝅1 = 𝝅0 𝑃 = (
1
5
,
3
5
,
1
5
)
𝝅2 = 𝝅1 𝑃 = 𝝅0 𝑃2
= (
17
50
,
37
100
,
29
100
)
𝝅3 = 𝝅2 𝑃 = 𝝅0 𝑃3
= (
1009
3000
,
2399
6000
,
1583
6000
)
27/39
マルコフ連鎖
– 𝑡を進めていくと状態分布が変化しなくなり,
𝝅 =
1
3
,
2
5
,
4
15
という定常分布に収束する。
28/39
マルコフ連鎖のRコード
※ブログ記事にコードを載せています。http://bayesmax.sblo.jp/article/187238305.html
29/39
マルコフ連鎖
– 定常分布を求めるには,
෍
𝑖∈𝑆
π(𝑖) = 1
のもとで
𝝅 = 𝝅𝑃
を解けばよい。
– それぞれの状態についての式に直した次の式を解く。
∀𝑗 ∈ 𝑆, 𝜋 𝑗 = ෍
𝑖∈𝑆
𝜋 𝑖 𝑝(𝑖, 𝑗)
推移確率行列𝑃を右から掛けても
変化しないのが定常分布𝝅
確率の総和が1であるという制約
ある状態𝑗である確率
各状態から状態𝑗に
移る確率の和
(要は期待値)
30/39
定常分布への収束
– 定常分布𝝅が存在し,
∀𝑠, 𝑠′ ∈ 𝑆, 𝑝 𝑠, 𝑠′ ≠ 0
のとき,どんな初期分布𝝅0からでも𝑡 → ∞で𝝅に収束する。
– 移動を繰り返したときの状態𝑠′ (e.g., 何を食べたか) は,
𝝅に従う独立な確率変数の実現値とみなせる。
– さらに移動を繰り返すことで, 𝝅から独立の実現値の列を
MCMCサンプルとして得ることができる。
推移確率行列の成分に
0が含まれない
31/39
詳細釣り合い条件
– 以下の詳細釣り合い条件が満たされれば,
𝝅は定常分布となる (これを満たせば𝝅 = 𝝅𝑃となる)。
∀𝑠, 𝑠′ ∈ 𝑆, 𝜋 𝑠 𝑝 𝑠, 𝑠′ = 𝜋 𝑠′ 𝑝(𝑠′, 𝑠)
– 例えば,最終的に
ラーメン → チャーハンの順に食べる確率と,
チャーハン → ラーメンの順に食べる確率が等しくならなかったら
詳細釣り合い条件を満たしていない。
ある状態𝑠である確率
𝑠から𝑠′に推移する確率
32/39
MHアルゴリズム
– 詳細釣り合い条件が成立するように
推移確率をうまく調整してマルコフ連鎖を進めれば,
定常分布からサンプリングすることが可能。
– そのオーソドックスな方法
=メトロポリス-ヘイステイングス・アルゴリズム (MH)
– 先ほどのメトロポリス・アルゴリズムはMH法の特殊な場合。
33/39
MHアルゴリズム
1. 状態𝒔からスタート (初期値)。
2. 移動先の候補𝒔′を提案分布𝒒(・|𝒔)から
ランダムサンプリングする。
状態𝑠における移動先の分布
– e.g., 𝑠 =
– の翌日の献立を発生させるのが提案分布
– 提案分布は今日の献立 (状態) のみによって決まる
– 提案分布からたまたま出てきた献立 (例えば )が𝑠’
– 提案分布が一様分布のときメトロポリス法と一致
34/39
MHアルゴリズム
3.以下の比𝒓を計算する。
定常分布から𝑠’が得られ,しかも次に𝑠に移る確率
– 直観的には, 𝑠′が𝑠よりも良さそうなら必ず移動し,
𝑠′が微妙であれば微妙であるほど𝑠に留まりやすい。
𝑟 =
𝜋(𝑠′)𝑞 𝑠 𝑠′
𝜋(𝑠)𝑞 𝑠′ 𝑠)
※提案分布が対称なら𝑞()が消える (e.g., 一様分布や正規分布)
定常分布から𝑠が得られ,しかも次に𝑠′に移る確率
4. 確率𝜶(𝒔, 𝒔′) = 𝐦𝐢𝐧{𝟏, 𝒓}で𝒔′を採択し,
確率𝟏 − 𝜶(𝒔, 𝒔′)で𝒔にとどまる。
5. 新しい状態を𝒔として2に戻る。
35/39
MHアルゴリズム
MHアルゴリズムを使えば詳細釣り合い条件が成立する。
– 𝑠′ → 𝑠の移動確率 (逆方向の推移確率) は,
𝑟′ =
𝜋 𝑠 𝑞 𝑠′ 𝑠
𝜋(𝑠′)𝑞 𝑠 𝑠′)
=
1
𝑟
𝛼 𝑠′, 𝑠 = min 1,1/𝑟
– また,新しい状態への推移確率は,
新しい状態が提案される確率 × 採択される確率だから,
𝑝 𝑠, 𝑠′ = 𝑞 𝑠′ 𝑠 × 𝛼 𝑠, 𝑠′
𝑝(𝑠′, 𝑠) = 𝑞 𝑠 𝑠′
× 𝛼(𝑠′, 𝑠)
36/39
MHアルゴリズム
– 𝑝 𝑠, 𝑠′ の両辺に目標分布𝜋 𝑠 をかけると,
𝜋 𝑠 𝑝 𝑠, 𝑠′
= 𝜋 𝑠 𝑞 𝑠′
𝑠 𝛼 𝑠, 𝑠′
= 𝜋 𝑠 𝑞 𝑠′ 𝑠 min 1, 𝑟
= min 𝜋 𝑠 𝑞 𝑠′ 𝑠 , 𝜋 𝑠 𝑞 𝑠′ 𝑠 𝑟
= min 𝜋 𝑠 𝑞 𝑠′
𝑠 , 𝜋 𝑠′ 𝑞 𝑠 𝑠′
= 𝜋 𝑠′ 𝑞 𝑠 𝑠′ min
𝜋 𝑠 𝑞(𝑠′|𝑠)
𝜋 𝑠′ 𝑞(𝑠|𝑠′)
, 1
= 𝜋 𝑠′ 𝑞 𝑠 𝑠′ min 1/𝑟, 1
= 𝜋 𝑠′ 𝑞 𝑠 𝑠′ 𝛼 𝑠′, 𝑠
= 𝜋 𝑠′ 𝑝 𝑠′ 𝑠
詳細釣り合い条件の式と一致
𝛼 𝑠, 𝑠′ に代入
minの中へ
𝑟に代入
外へ
1/𝑟に置換
𝑝(𝑠′, 𝑠) = 𝑞 𝑠 𝑠′ × 𝛼(𝑠′, 𝑠)より
minを𝛼に
37/39
事後分布のMCMC
– ベイズ推定の場合,目標とする定常分布は事後分布
𝜋 𝜃 = 𝑝 𝜃 𝑥 𝑛
=
𝑝 𝑥 𝑛 𝜃 𝜑 𝜃
𝑝(𝑥 𝑛)
– 比𝑟は事後確率の比を使って表せる。このとき分母は消える。
𝑟 =
𝜋 𝜃′ 𝑞 𝜃 𝜃′
𝜋(𝜃)𝑞 𝜃′ 𝜃)
=
𝑝 𝑥 𝑛
𝜃′ 𝜑 𝜃′
𝑝 𝑥 𝑛
𝜃 𝜑 𝜃
×
𝑞 𝜃 𝜃′
𝑞 𝜃′ 𝜃
– パラメータに合せて適切な提案分布を採用するのがHM法
ベイズの定理
提案される確率の比
(提案分布が対称なら1)
事後確率の比
38/39
もっと効率的なMCMC
ハミルトニアン・モンテカルロ法 (HMC法)
– 事後分布の情報量を使って
推移確率を決める方法。
– Stanで使われているNUTSはHMC法に基づく。
See 清水 裕士 (2018). Stanを使ってNUTSを実装する Retrieved from
https://norimune.net/3149
ギブスサンプリング法
– 条件付き確率分布からサンプリングを行う方法。
– BUGS (Bayesian inference Using Gibbs Sampling)や
JAGS (Just Another Gibbs Sampler) で使われている。
39/39
Enjoy!

More Related Content

What's hot

今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編Hiroshi Shimizu
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!Kazuhide Okamura
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布についてHiroshi Shimizu
 
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)Yusuke Kaneko
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理するHiroshi Shimizu
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定logics-of-blue
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章hiro5585
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 

What's hot (20)

Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
社会心理学とGlmm
社会心理学とGlmm社会心理学とGlmm
社会心理学とGlmm
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 

Similar to MCMCとともだちになろう【※Docswellにも同じものを上げています】

RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)Takuma Yagi
 
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability DistributionsDeep Learning JP
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル). .
 
マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2Nagi Teramo
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎ShoutoYonekura
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」moterech
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargeJunpei Matsuda
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
第5章混合分布モデルによる逐次更新型異常検知
第5章混合分布モデルによる逐次更新型異常検知第5章混合分布モデルによる逐次更新型異常検知
第5章混合分布モデルによる逐次更新型異常検知Tetsuma Tada
 

Similar to MCMCとともだちになろう【※Docswellにも同じものを上げています】 (13)

MCMC法
MCMC法MCMC法
MCMC法
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
 
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
細胞現象の数理
細胞現象の数理細胞現象の数理
細胞現象の数理
 
マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
 
From mcmc to sgnht
From mcmc to sgnhtFrom mcmc to sgnht
From mcmc to sgnht
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
第5章混合分布モデルによる逐次更新型異常検知
第5章混合分布モデルによる逐次更新型異常検知第5章混合分布モデルによる逐次更新型異常検知
第5章混合分布モデルによる逐次更新型異常検知
 

MCMCとともだちになろう【※Docswellにも同じものを上げています】