Submit Search
Upload
WBICによる混合正規分布の分離と抽出
•
4 likes
•
1,863 views
Y
Yusuke TAMAI
Follow
WBICを混合正規分布に適用し、BICとの性能比較を行った。合わせて、正規分布する信号の分離に対する応用可能性を検討した。
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 19
Recommended
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
ゼミで発表した資料です。間違っていたらTwitterに連絡ください。@ottamm_190
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
HijiyamaR#3で発表しました。 階層ベイズを使った場合に,最尤法のAICと結果が大きく異なります。その問題についてどのように考えたらいいかについて発表しました。
EMアルゴリズム
EMアルゴリズム
Sotetsu KOYAMADA(小山田創哲)
EMアルゴリズムについてのスライド 2014.06.26@ATR
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
Classi.corp
mcmcをPythonで行うためのパッケージ比較についての話
Recommended
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
ゼミで発表した資料です。間違っていたらTwitterに連絡ください。@ottamm_190
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
HijiyamaR#3で発表しました。 階層ベイズを使った場合に,最尤法のAICと結果が大きく異なります。その問題についてどのように考えたらいいかについて発表しました。
EMアルゴリズム
EMアルゴリズム
Sotetsu KOYAMADA(小山田創哲)
EMアルゴリズムについてのスライド 2014.06.26@ATR
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
Classi.corp
mcmcをPythonで行うためのパッケージ比較についての話
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
Hiroshi Shimizu
モデル評価の基準と自由エネルギー(負の対数周辺尤度)についてまとめました。また、階層ベイズに自由エネルギーを評価するとどうなるかなどについても解説しています。 スライド中のStanやRのコードは下のリンクからコピペできます。 http://norimune.net/3107
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
授業のゼミで作りました。
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
研究室で説明した「パターン認識と機械学習(下)」の第9章混合モデルとEMアルゴリズムについてです.
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
Shushi Namba
ベイズ統計WS「心理学者のためのベイズ 統計学」にて、「社会心理学における事例: ベイズモデリングで見る因子分析」での発表資料です。
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
2017/12/12 強化学習アーキテクチャ勉強会の資料
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾
Yoshitake Takebayashi
ベイズ推定の発想、MCMCによる推定の概要など入門的なお話です。2014年6月の第一回ベイズ推定WSと内容はほぼ同一。 reveal.jsでクルクル回ります。 http://ytake2.github.io/bayes.github.io/#/
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
2019/09/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
転移学習のサーベイ資料(改定版)
Semantic segmentation
Semantic segmentation
Takuya Minagawa
サーベイ論文の解説+α
Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
広島ベイズ塾夏合宿で発表したStanコードの書き方中級編です。 回帰分析から,一般化線形モデル,欠損値のあるモデル,潜在変数があるモデル,ゼロ過剰分布,混合分布モデルを扱いました。
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
Okamoto Laboratory, The University of Electro-Communications
今井 俊輔, 岡本 一志: Rによるベイジアンネットワーク入門, パーティクルフィルタ研究会1月実践セミナー, 2017.01.07
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
須山敦志著 MLPシリーズベイズ深層学習の説明資料です。
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
PRML輪読#8
PRML輪読#8
matsuolab
東京大学松尾研究室におけるPRML輪読資料です。
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
2019/03/08 Deep Learning JP: http://deeplearning.jp/seminar-2/
MCMCで研究報告
MCMCで研究報告
Masaru Tokuoka
ベイズ推定による多変量解析入門@広島大学総合科学研究科 (2014.06.09.) の発表資料です。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
More Related Content
What's hot
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
Hiroshi Shimizu
モデル評価の基準と自由エネルギー(負の対数周辺尤度)についてまとめました。また、階層ベイズに自由エネルギーを評価するとどうなるかなどについても解説しています。 スライド中のStanやRのコードは下のリンクからコピペできます。 http://norimune.net/3107
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
授業のゼミで作りました。
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
研究室で説明した「パターン認識と機械学習(下)」の第9章混合モデルとEMアルゴリズムについてです.
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
Shushi Namba
ベイズ統計WS「心理学者のためのベイズ 統計学」にて、「社会心理学における事例: ベイズモデリングで見る因子分析」での発表資料です。
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
2017/12/12 強化学習アーキテクチャ勉強会の資料
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾
Yoshitake Takebayashi
ベイズ推定の発想、MCMCによる推定の概要など入門的なお話です。2014年6月の第一回ベイズ推定WSと内容はほぼ同一。 reveal.jsでクルクル回ります。 http://ytake2.github.io/bayes.github.io/#/
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
2019/09/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
転移学習のサーベイ資料(改定版)
Semantic segmentation
Semantic segmentation
Takuya Minagawa
サーベイ論文の解説+α
Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
広島ベイズ塾夏合宿で発表したStanコードの書き方中級編です。 回帰分析から,一般化線形モデル,欠損値のあるモデル,潜在変数があるモデル,ゼロ過剰分布,混合分布モデルを扱いました。
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
Okamoto Laboratory, The University of Electro-Communications
今井 俊輔, 岡本 一志: Rによるベイジアンネットワーク入門, パーティクルフィルタ研究会1月実践セミナー, 2017.01.07
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
須山敦志著 MLPシリーズベイズ深層学習の説明資料です。
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
PRML輪読#8
PRML輪読#8
matsuolab
東京大学松尾研究室におけるPRML輪読資料です。
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
2019/03/08 Deep Learning JP: http://deeplearning.jp/seminar-2/
MCMCで研究報告
MCMCで研究報告
Masaru Tokuoka
ベイズ推定による多変量解析入門@広島大学総合科学研究科 (2014.06.09.) の発表資料です。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
What's hot
(20)
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
GAN(と強化学習との関係)
GAN(と強化学習との関係)
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
Semantic segmentation
Semantic segmentation
Stanコードの書き方 中級編
Stanコードの書き方 中級編
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
PRML輪読#8
PRML輪読#8
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
MCMCで研究報告
MCMCで研究報告
Optimizer入門&最新動向
Optimizer入門&最新動向
WBICによる混合正規分布の分離と抽出
1.
WBICによる混合正規信号の 分離と抽出 @TYM_circle10 2018/03/20 1
2.
概要 ■ 混合正規分布に従うデータから、元の分布を精密に抽出すること を目指し実験を行った ■ 重畳した正規分布から作成したデータに対し、クラスタ(重畳分布) 数をBICとWBICでそれぞれ推定した ■
推定されたクラスタ数に基づいて混合正規分布モデルを構築し、 変分ベイズ(ADVI)およびMCMC(NUTS)によりパラメータを推定し た BICではクラスタ数を少なく見積もったのに対し、WBICでは正確 なクラスタ数を推定できた その後のパラメータ推定には課題が残った 2
3.
1. 問題 3
4.
問題 ■ 正規分布に従う信号源があり、複数の信号源からの値が重畳した状況を 考える – 観測されるデータは、混合正規分布から生成されると仮定できる
より複雑な分布・モデルはlater work ■ クラスタ数の決定(モデル選択)→ パラメータ推定 の手順を踏む – 論文に載せられる解析手順を踏む – クラスタ数決定:一致性のある情報量規準(BIC, WBIC)による選択 – パラメータ推定:VB(ADVI), MCMC(NUTS) 4
5.
使用したデータ ■ クラスタ数K=3の混合正規分布を考える 𝑦 ~ 1 3 𝒩
10, 1.52 + 𝒩 15, 1.02 + 𝒩 17, 1.02 ■ このGMMの各コンポーネントから、N=100点ずつのデータを生成する 5
6.
使用したデータ ■ 実際に生成されたデータ(ヒストグラム) – クラスタ数が
K≧2 らしいことはわかる – 右側の釣鐘型から重畳を判別するのは困難(2≦K≦5 ?) 6
7.
使用したデータ ■ 実際に生成されたデータ(ヒストグラム) – クラスタ数が
K≧2 らしいことはわかる – 右側の釣鐘型から重畳を判別するのは困難(2≦K≦5 ?) 7
8.
2. 手法 8
9.
BICの算出 ■ mclustによる計算結果をそのまま使用 – 各クラスタの分散が異なるモデルを使用(modelNames=“V”) –
検算として、flexmixによる推定値からもBICを計算(問題無かったため、以後登場しない) 自動でクラスタが削除される仕様のため、引数にminprior=0を追加 9
10.
WBICの算出 - (1)Stan ■
stanによりWBICを計算した。 – target記法により、逆温度 1/ log 𝑛 の事後分布からサンプリングを実行 – generated quantitiesブロックにて、事後分布の下での対数尤度値を取得 – stanスクリプトの外(Rスクリプト内で)WBICの算出を行う 10
11.
WBICの算出 - (2)R
[or Python] ■ WBICの定義式:逆温度βの事後分布 𝑝 𝛽(𝑤|𝒀) に対して、 𝔼 𝛽 𝑛𝐿 𝑛 = − 𝑝 𝛽 𝑤 𝒀 log 𝑛 𝑝 𝑌𝑛 𝑤 𝑑𝑤 ■ Stan内で取得したのは、「各データ点𝑌𝑛での対数尤度log 𝑝 𝑌𝑛 𝑤 」を、 逆 温度1/ log 𝑛 の事後分布に従いサンプリングしたもの したがって、 1. 全データについて足し合わせ、𝑛𝐿 𝑛 𝑤 = log 𝑛 𝑝 𝑌𝑛 𝑤 を得る 2. MCMCサンプルに関して平均を取り、𝔼1/ log 𝑛 [𝑛𝐿 𝑛(𝑤)] を近似する ことでWBICの値が算出できる 11
12.
3. 結果 12
13.
モデル選択 ■ 算出されたBICとWBICの値 BICではクラスタ数K=2と誤推定に陥る
一方WBICでは、真のモデルK=3を当てることができた 13
14.
パラメータ推定(ADVI) ■ 真のモデル(K=3)でADVIによるパラメータ推定を試行すると… クラスタ数が削減されている 変分ベイズ(ADVI)では3つのクラスタを取得できない。
モデル選択なしでは、K=3であったことすら特定不可能 MCMC(NUTS)による推定に切り替える 14
15.
パラメータ推定(NUTS) ■ VBに変えてNUTSで推定 – chain=4,
iter=10000, warmup=8000 – EAPを採用すると 0.29𝒩 9.74, 1.622 + 0.25𝒩 13.70, 1.822 + 0.47𝒩(17.36,1.602) 15
16.
抽出されたクラスタ ■ 真のモデル(分布) 𝒩 10.0,
1.502 , 𝒩 15.00, 1.002 , 𝒩 17.00, 1.002 ■ 復元されたクラスタ(正規分布) 𝒩 9.74, 1.622 , 𝒩 13.70, 1.822 , 𝒩(17.36,1.602 ) 16
17.
補足.WBICの検算 17
18.
WBICの検算 ■ 前述の結果では、BICとWBICの値が乖離していた[p.13] – 同じ量(自由エネルギー)を近似しているはず –
モデルの特異性によりBICが乖離した orWBICの計算ミス ■ クラスタ間を離したデータ(N=300)で再実験 𝑦 ~ 1 3 𝒩 1, 1.52 + 𝒩 15, 1.02 + 𝒩 27, 1.02 ■ BIC&WBIC値 – 概ね一致した値 – 前述の値のズレは モデルの特異性由来 18
19.
気になる点…K=2でのRhat ■ WBIC計算時、Rhat>1.1となるパラメータ数をカウントした ⇨ K=2の時のみ、Rhat>1.1となるパラメータが存在した ■
iterやburn-inを増やしても解決しない ■ また複数回実行しても、K≧3は全てRhat<1.1であった – モデルの表現能力不足により、収束点が存在しない? 自然なものなのか、解決策があるものかは分からず 19