Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Motoya Wakiyama
1,566 views
データ解析のための統計モデリング入門9章後半
第9回「データ解析のための統計モデリング入門」読書会で発表した時の資料です
Data & Analytics
◦
Read more
3
Save
Share
Embed
Embed presentation
Download
Downloaded 17 times
1
/ 26
2
/ 26
3
/ 26
4
/ 26
5
/ 26
6
/ 26
7
/ 26
8
/ 26
9
/ 26
10
/ 26
11
/ 26
12
/ 26
13
/ 26
14
/ 26
15
/ 26
16
/ 26
17
/ 26
18
/ 26
19
/ 26
20
/ 26
21
/ 26
22
/ 26
23
/ 26
24
/ 26
25
/ 26
26
/ 26
More Related Content
PDF
コメントビュアーを作った話
by
健人 辻
PPTX
かんたん!UMLのバージョン管理,どこでもモデリング
by
Kento Tsuji
PDF
はじパタ8章 svm
by
tetsuro ito
PDF
はじパタ2章
by
tetsuro ito
PDF
はじパタ11章 後半
by
Atsushi Hayakawa
PDF
Ruby紹介(pdf)
by
Gohryuh
ODP
monkey runnerの使い方
by
Hiasyoshi Suehiro
PDF
20140204はじパタlt
by
tetsuro ito
コメントビュアーを作った話
by
健人 辻
かんたん!UMLのバージョン管理,どこでもモデリング
by
Kento Tsuji
はじパタ8章 svm
by
tetsuro ito
はじパタ2章
by
tetsuro ito
はじパタ11章 後半
by
Atsushi Hayakawa
Ruby紹介(pdf)
by
Gohryuh
monkey runnerの使い方
by
Hiasyoshi Suehiro
20140204はじパタlt
by
tetsuro ito
Viewers also liked
PDF
ノンパラベイズ入門の入門
by
Shuyo Nakatani
PDF
3分でわかる多項分布とディリクレ分布
by
Junya Saito
PDF
パターン認識 第10章 決定木
by
Miyoshi Yuya
PDF
はじめてのパターン認識 第11章 11.1-11.2
by
Prunus 1350
PDF
決定木学習
by
Mitsuo Shimohata
PDF
Pystan for nlp
by
Xiangze
ノンパラベイズ入門の入門
by
Shuyo Nakatani
3分でわかる多項分布とディリクレ分布
by
Junya Saito
パターン認識 第10章 決定木
by
Miyoshi Yuya
はじめてのパターン認識 第11章 11.1-11.2
by
Prunus 1350
決定木学習
by
Mitsuo Shimohata
Pystan for nlp
by
Xiangze
Similar to データ解析のための統計モデリング入門9章後半
PDF
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
by
Takuma Yagi
PPTX
ベイズ統計学の概論的紹介
by
Naoki Hayashi
PDF
データ解析のための統計モデリング入門10章前半
by
Shinya Akiba
PDF
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
by
. .
PPTX
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
by
nishioka1
PDF
状態空間モデルの実行方法と実行環境の比較
by
Hiroki Itô
PPTX
RとStanで分散分析
by
人斬り 抜刀斎
PPTX
MCMCによる回帰分析@ベイズセミナー
by
Takashi Yamane
PPTX
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
by
Yoshitake Takebayashi
PDF
MCMCとともだちになろう【※Docswellにも同じものを上げています】
by
Hiroyuki Muto
PPTX
ベイズ統計学の概論的紹介-old
by
Naoki Hayashi
PPTX
頻度論とベイズ論と誤差最小化について
by
Shohei Miyashita
PDF
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
by
基晴 出井
PDF
みどりぼん9章前半
by
Akifumi Eguchi
PPTX
MCMC and greta package社内勉強会用スライド
by
Shuma Ishigami
PPTX
MCMC法
by
MatsuiRyo
PDF
RStanとShinyStanによるベイズ統計モデリング入門
by
Masaki Tsuda
PDF
Bishop prml 9.3_wk77_100408-1504
by
Wataru Kishimoto
PDF
Stanとdlmによる状態空間モデル
by
Hiroki Itô
PDF
Tokyo r94 beginnerssession3
by
kotora_0507
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
by
Takuma Yagi
ベイズ統計学の概論的紹介
by
Naoki Hayashi
データ解析のための統計モデリング入門10章前半
by
Shinya Akiba
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
by
. .
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
by
nishioka1
状態空間モデルの実行方法と実行環境の比較
by
Hiroki Itô
RとStanで分散分析
by
人斬り 抜刀斎
MCMCによる回帰分析@ベイズセミナー
by
Takashi Yamane
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
by
Yoshitake Takebayashi
MCMCとともだちになろう【※Docswellにも同じものを上げています】
by
Hiroyuki Muto
ベイズ統計学の概論的紹介-old
by
Naoki Hayashi
頻度論とベイズ論と誤差最小化について
by
Shohei Miyashita
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
by
基晴 出井
みどりぼん9章前半
by
Akifumi Eguchi
MCMC and greta package社内勉強会用スライド
by
Shuma Ishigami
MCMC法
by
MatsuiRyo
RStanとShinyStanによるベイズ統計モデリング入門
by
Masaki Tsuda
Bishop prml 9.3_wk77_100408-1504
by
Wataru Kishimoto
Stanとdlmによる状態空間モデル
by
Hiroki Itô
Tokyo r94 beginnerssession3
by
kotora_0507
More from Motoya Wakiyama
PDF
データ解析のための統計モデリング入門9章後半
by
Motoya Wakiyama
PDF
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
PDF
はじめてのパターン認識 第8章 サポートベクトルマシン
by
Motoya Wakiyama
PDF
2013.07.15 はじパタlt scikit-learnで始める機械学習
by
Motoya Wakiyama
PDF
続分かりやすいパターン認識 4章後半(4.7以降)
by
Motoya Wakiyama
PDF
[Rec sys2013勉強会]orthogonal query recommendation
by
Motoya Wakiyama
PPTX
Repeat buyer prediction for e commerce, KDD2016
by
Motoya Wakiyama
PDF
[Rec sys2013勉強会]using maximum coverage to optimize recommendation systems in ...
by
Motoya Wakiyama
データ解析のための統計モデリング入門9章後半
by
Motoya Wakiyama
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
はじめてのパターン認識 第8章 サポートベクトルマシン
by
Motoya Wakiyama
2013.07.15 はじパタlt scikit-learnで始める機械学習
by
Motoya Wakiyama
続分かりやすいパターン認識 4章後半(4.7以降)
by
Motoya Wakiyama
[Rec sys2013勉強会]orthogonal query recommendation
by
Motoya Wakiyama
Repeat buyer prediction for e commerce, KDD2016
by
Motoya Wakiyama
[Rec sys2013勉強会]using maximum coverage to optimize recommendation systems in ...
by
Motoya Wakiyama
データ解析のための統計モデリング入門9章後半
1.
Lorem Ipsum Dolor
第9章「GLMのベイズモデル化と 事後分布の推定」後半 @「データ解析のための統計モデリング入門」読書会
2.
お前だれよ ❖ twitter:wwacky!
! ❖ 次回の会場係です! ❖ 11月にサンフランシスコ行ってきます(仕事です)! ❖ 普段はMac。Windowsは8しか持ってない(伏線)! ! ❖ 丸の内でデータ分析してます! ❖ JOINしてくれる人。募集してます(マジで)
3.
お品書き ❖ MCMCサンプルで事後分布推定!
❖ 複数パラメータのMCMCサンプリング! の2本立てです! ! ! ! 内容的には、ほとんどツール(WinBUGS)の説明
4.
お断り ❖ WinBUGSインストール出来ませんでしたー!!!!
XPモードとかも 試したがダメ。! WindowsMeで 育った俺も匙投げ ました。
5.
❖ 代わりにStanでやりました(流行ってるっぽいから)! !
❖ 他の選択肢だとJAGSは割と好き! ❖ OpenBUGSは前使った時に微妙だったから嫌い
6.
9.5 MCMCサンプルから事後分布推定
7.
9.4までの推定をStanで実施 Stanのコード(poisson_reg.stanで保存) Rのコード
// 入力データ宣言! data {! ! int<lower=0> N;! ! real x[N];! ! int y[N];! ! real xmean;! }! ! // パラメータの定義! parameters {! ! real beta1;! ! real beta2;! }! ! //モデルの定義! model {! ! beta1 ~ normal(0, 1000);! ! beta2 ~ normal(0, 1000);! ! for (i in 1:N)! ! ! y[i] ~ poisson(exp(beta1 + beta2 * (x[i] - xmean)));! } #初回のみインストール! Sys.setenv(MAKEFLAGS = “-j4")! source('http://mc-stan.org/rstan/install.R', echo = TRUE, max.deparse.length = 2000)! install_rstan()! ! #ライブラリ読み込み! library(rstan)! #データ読み込み! load(“/path/to/kubobook2012/chapter09/d.RData”)! #データを配列に変換しておく! d.list = list(! x = d$x,! y = d$y,! xmean = mean(d$x),! N = nrow(d)! )! # MCMCサンプリング! result.stan = stan(file="poisson_reg.stan", data=d.list, iter=1600, chains=3, warmup=100, thin=3)
8.
9.4までの推定をStanで実施 ❖ こんなかんじで動く
9.
サンプリング結果を可視化 #codaを使ってプロット! library(coda)!
result.coda = mcmc.list(lapply(1:ncol(result.stan),function(x) mcmc(as.array(result.stan)[,x,])))! plot(result.coda) lp__は対数尤度のプロット
10.
で、どう見ればいいの?
11.
サンプリング結果を可視化 #codaを使ってプロット! library(coda)!
result.coda = mcmc.list(lapply(1:ncol(result.stan),function(x) mcmc(as.array(result.stan)[,x,])))! plot(result.coda) ❖ 3試行実施しているので、3色に 分かれてプロットされる! ❖ 試行回数間で比較しても、ほぼ サンプルの分布は一致している ので安定してそう lp__は対数尤度のプロット
12.
サンプリング結果を可視化 #codaを使ってプロット! library(coda)!
result.coda = mcmc.list(lapply(1:ncol(result.stan),function(x) mcmc(as.array(result.stan)[,x,])))! plot(result.coda) lp__は対数尤度のプロット ❖ β1とβ2の周辺事後分布p(β1|Y), p(β1|Y)! ❖ サンプリングした値を使ってカー ネル密度推定した結果がプロット される! ! 周辺事後分布は、もう片方のパラメー タで周辺化してある!
13.
サンプリング値 ❖ いろいろやりたい時は、サンプ
ル値を取り出して使えばおk # 実行結果からサンプルを取り出し! post = extract (result.stan, permuted = F)! ! #データフレームに変換! post.m = melt (post)
14.
(周辺)事後分布の統計量 ❖ MCMCの結果を確認してみる
n_eff : the effective sample size! se_mean : the standard error of the mean
15.
(周辺)事後分布の統計量 とりあえず、推定結果を見るだけなら! !
β1=1.98 β2=0.09
16.
他に何が分かるのか? ❖ 試行毎のばらつき!
❖ でサンプル列間の収束を確認する! ❖ だいたい が1.0に近ければ収束できてる! ❖ 1.1超えてるとヤバイ(9章前半参照)
17.
他に何が分かるのか? ❖ 信頼区間(e.g.
95%信頼区間)! ❖ β1の95%信頼区間は1.81~2.13。β2は-0.05~0.22! ❖ 即ち「β1の値は95%の事後確率で1.81~2.13になる」と 解釈できる! !
18.
信頼区間の解釈 推定値が0から離れているかどうか! !
β2の95%信頼区間が-0.05~0.22! ! →信頼区間が0を挟んでいるので、0から離れているとは いえない! ! こういう解釈に使ったこと無いんだけど、やってる人って多 いのか?(一般的な手法なのか誰か知ってる?)
19.
9.6 複数パラメーターのMCMCサンプリング
20.
複数パラメータのサンプリング ❖ パラメータが複数存在する場合は、1パラメータずつサ
ンプリングすればおk β1 β2 初期値step1 step2 step3 ・・・ β1,0 β2,0 β2,0を定数として! β1,1サンプリング β1,1を定数として! β2,1サンプリング β2,1を定数として! β1,2サンプリング β1,2を定数として! β2,2サンプリング β2,2を定数として! β1,3サンプリング β1,3を定数として! β2,3サンプリング サンプリングの順序(β1とβ2のどっちからやるか)はどっちでもいい。! 定常分布であれば、部分的なサンプリングも許されている! (逆に言うと、定常でない場合には影響があるので、試行毎の違いはチェックした方がいい)
21.
ギブスサンプリング ❖ メトロポリス法(8章で出てきたやつ)!
❖ 新しい値の候補を乱数で作り、それに変化するかどうかを決める! ❖ 更新は尤度が上がる場合か、尤度が上がらなくても一定確率で行う! ! ❖ ギブスサンプリング! ❖ 新しい値の確率分布を作り、その確率分布のランダムサンプルを新しい値とする! ! ❖ ギブスサンプリングは、こんなメリットが・・・! ❖ MCMCステップで、「元の値」と「更新された値」の相関が比較的小さい! ❖ 事前共役分布の場合に、事後分布のサンプリングが簡単
22.
ギブスサンプリング ❖ 今回のポアソン分布に従うモデル式の場合のギブスサンプリング
①初期値をβ1=0, β2=0とする! ! ②β2=0を定数として、β1をサンプリングするための確率分布(全条件付確率)を作成する! ! ! λyi λi) ! p(β1|Y,β2 = 0.0) ∝ i exp(−p(β1) yi! ! i ③p(β1|Y, β2=0.0)からβ1をサンプリングする(β1=2.052がサンプリングされたとする)! ④β1=2.052を定数として、β2をサンプリングするための確率分布(全条件付確率)を作成する! ! ! ! ⑤p(β2|Y, β1=2.052)からβ2をサンプリング! ! ⑥β1とβ2を更新しながら②~⑤を繰り返す サンプリング1step分 尤度✕事前分布からβ2を消しただけ
23.
共役事前分布 ❖ ギブスサンプリングは、事前分布が尤度の持つ確率分布
と共役の確率分布だと、計算速度が早くなる 事後分布 ∝ 尤度 ✕ 事前分布 ガンマ分布! ポアソン分布! ガンマ分布! ベータ分布! 二項分布! ベータ分布! ディリクレ分布 多項分布 ディリクレ分布 事前分布が尤度のパラメータと共役関係だと、事後分布の 確率分布が決まるので、事後分布のサンプリングが楽
24.
共役事前分布 みどり本9章では事前分布が正規分布なので共役関係では ないが、事前分布がガンマ分布で共役関係だと以下の通り
事後分布 ∝ 尤度 ✕ 事前分布 平均λの! ポアソン分布 パラメータα,βの! ガンマ分布 証明書こうとしたが、LaTexiTが使いづらくて諦めた。すまん! パラメータα',β'の! ガンマ分布
25.
共役分布って使ったほうがいいの? ❖ 事後分布が確率分布に従っていると、演算が楽になる!
→計算速度が上がる! ! ❖ かと言って、推定にかけれる時間とのトレードオフで使 うかどうか考えれば良い! ❖ モデルの分かりやすさを優先とかでも時間が許せば OK
26.
発表後追記 ❖ 会場の方から伺ったのですが、Stanはギブスサンプリン
グ使ってないらしいです(HMC – Hamiltonian Monte Carloらしい)
Download