Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Haruka Ozaki
PPTX, PDF
42,530 views
変分ベイズ法の説明
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
Education
◦
Read more
62
Save
Share
Embed
Embed presentation
Download
Downloaded 288 times
1
/ 27
2
/ 27
3
/ 27
4
/ 27
5
/ 27
6
/ 27
7
/ 27
8
/ 27
9
/ 27
10
/ 27
11
/ 27
12
/ 27
13
/ 27
14
/ 27
15
/ 27
16
/ 27
17
/ 27
18
/ 27
19
/ 27
20
/ 27
Most read
21
/ 27
22
/ 27
Most read
23
/ 27
24
/ 27
25
/ 27
Most read
26
/ 27
27
/ 27
More Related Content
PDF
変分推論法(変分ベイズ法)(PRML第10章)
by
Takao Yamanaka
PDF
機械学習のためのベイズ最適化入門
by
hoxo_m
PDF
PRML Chapter 14
by
Masahito Ohue
PDF
混合モデルとEMアルゴリズム(PRML第9章)
by
Takao Yamanaka
PDF
PRML8章
by
弘毅 露崎
PPTX
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
by
Yoshitake Takebayashi
PDF
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
PDF
統計的学習の基礎 5章前半(~5.6)
by
Kota Mori
変分推論法(変分ベイズ法)(PRML第10章)
by
Takao Yamanaka
機械学習のためのベイズ最適化入門
by
hoxo_m
PRML Chapter 14
by
Masahito Ohue
混合モデルとEMアルゴリズム(PRML第9章)
by
Takao Yamanaka
PRML8章
by
弘毅 露崎
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
by
Yoshitake Takebayashi
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
統計的学習の基礎 5章前半(~5.6)
by
Kota Mori
What's hot
PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
by
tmtm otm
PDF
統計的因果推論 勉強用 isseing333
by
Issei Kurahashi
PDF
EMアルゴリズム
by
Sotetsu KOYAMADA(小山田創哲)
PPTX
[DL輪読会]Neural Ordinary Differential Equations
by
Deep Learning JP
PPTX
ようやく分かった!最尤推定とベイズ推定
by
Akira Masuda
PDF
Bayesian Neural Networks : Survey
by
tmtm otm
PPTX
ベイズ統計学の概論的紹介
by
Naoki Hayashi
PPTX
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PDF
MCMCと正規分布の推測
by
Gen Fujita
PDF
Variational AutoEncoder
by
Kazuki Nitta
PDF
PRML学習者から入る深層生成モデル入門
by
tmtm otm
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PPTX
15分でわかる(範囲の)ベイズ統計学
by
Ken'ichi Matsui
PDF
グラフィカル Lasso を用いた異常検知
by
Yuya Takashina
PDF
『バックドア基準の入門』@統数研研究集会
by
takehikoihayashi
PPTX
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
PDF
組合せ最適化入門:線形計画から整数計画まで
by
Shunji Umetani
PDF
階層モデルの分散パラメータの事前分布について
by
hoxo_m
PPTX
トピックモデルの基礎と応用
by
Tomonari Masada
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
by
tmtm otm
統計的因果推論 勉強用 isseing333
by
Issei Kurahashi
EMアルゴリズム
by
Sotetsu KOYAMADA(小山田創哲)
[DL輪読会]Neural Ordinary Differential Equations
by
Deep Learning JP
ようやく分かった!最尤推定とベイズ推定
by
Akira Masuda
Bayesian Neural Networks : Survey
by
tmtm otm
ベイズ統計学の概論的紹介
by
Naoki Hayashi
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
MCMCと正規分布の推測
by
Gen Fujita
Variational AutoEncoder
by
Kazuki Nitta
PRML学習者から入る深層生成モデル入門
by
tmtm otm
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
15分でわかる(範囲の)ベイズ統計学
by
Ken'ichi Matsui
グラフィカル Lasso を用いた異常検知
by
Yuya Takashina
『バックドア基準の入門』@統数研研究集会
by
takehikoihayashi
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
組合せ最適化入門:線形計画から整数計画まで
by
Shunji Umetani
階層モデルの分散パラメータの事前分布について
by
hoxo_m
トピックモデルの基礎と応用
by
Tomonari Masada
Viewers also liked
PDF
Deformable Part Modelとその発展
by
Takao Yamanaka
PDF
数理工学専攻の入試案内
by
京都大学大学院情報学研究科数理工学専攻
PDF
混合ガウスモデルとEMアルゴリスム
by
貴之 八木
PDF
パターン認識 04 混合正規分布
by
sleipnir002
PDF
Objectnessとその周辺技術
by
Takao Yamanaka
PDF
Fisher線形判別分析とFisher Weight Maps
by
Takao Yamanaka
PDF
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
by
Takao Yamanaka
PDF
Pythonではじめる OpenAI Gymトレーニング
by
Takahiro Kubo
PDF
Stanコードの書き方 中級編
by
Hiroshi Shimizu
PDF
生成モデルの Deep Learning
by
Seiya Tokui
Deformable Part Modelとその発展
by
Takao Yamanaka
数理工学専攻の入試案内
by
京都大学大学院情報学研究科数理工学専攻
混合ガウスモデルとEMアルゴリスム
by
貴之 八木
パターン認識 04 混合正規分布
by
sleipnir002
Objectnessとその周辺技術
by
Takao Yamanaka
Fisher線形判別分析とFisher Weight Maps
by
Takao Yamanaka
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
by
Takao Yamanaka
Pythonではじめる OpenAI Gymトレーニング
by
Takahiro Kubo
Stanコードの書き方 中級編
by
Hiroshi Shimizu
生成モデルの Deep Learning
by
Seiya Tokui
Similar to 変分ベイズ法の説明
PDF
自動微分変分ベイズ法の紹介
by
Taku Yoshioka
PDF
いいからベイズ推定してみる
by
Makoto Hirakawa
PDF
3.3節 変分近似法(前半)
by
tn1031
PDF
0726
by
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
PDF
単純ベイズ法による異常検知 #ml-professional
by
Ai Makabi
PPTX
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
by
tanutarou
PDF
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
by
Shushi Namba
PDF
Casual learning machine learning with_excel_no3
by
KazuhiroSato8
PDF
ベイズ統計入門
by
Miyoshi Yuya
PDF
PRML第3章_3.3-3.4
by
Takashi Tamura
PDF
ITエンジニアのための機械学習理論入門8.1ベイズ推定
by
Daisuke Shimada
PPTX
PRML 1.2.3 ベイズ確率
by
KokiTakamiya
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PDF
ベイズ入門
by
Zansa
PDF
PRML輪読#10
by
matsuolab
PDF
20190512 bayes hands-on
by
Yoichi Tokita
PDF
bayesian inference
by
Asako Yanuki
PPT
大森ゼミ新歓
by
T Nakagawa
PDF
PRML輪読#2
by
matsuolab
PDF
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
by
Masahiro Suzuki
自動微分変分ベイズ法の紹介
by
Taku Yoshioka
いいからベイズ推定してみる
by
Makoto Hirakawa
3.3節 変分近似法(前半)
by
tn1031
0726
by
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
単純ベイズ法による異常検知 #ml-professional
by
Ai Makabi
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
by
tanutarou
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
by
Shushi Namba
Casual learning machine learning with_excel_no3
by
KazuhiroSato8
ベイズ統計入門
by
Miyoshi Yuya
PRML第3章_3.3-3.4
by
Takashi Tamura
ITエンジニアのための機械学習理論入門8.1ベイズ推定
by
Daisuke Shimada
PRML 1.2.3 ベイズ確率
by
KokiTakamiya
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
ベイズ入門
by
Zansa
PRML輪読#10
by
matsuolab
20190512 bayes hands-on
by
Yoichi Tokita
bayesian inference
by
Asako Yanuki
大森ゼミ新歓
by
T Nakagawa
PRML輪読#2
by
matsuolab
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
by
Masahiro Suzuki
More from Haruka Ozaki
PPTX
160817 ISMB2016読み会
by
Haruka Ozaki
PDF
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
by
Haruka Ozaki
PPTX
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
by
Haruka Ozaki
PPTX
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
by
Haruka Ozaki
PPTX
巨大な表を高速に扱うData.table について
by
Haruka Ozaki
PPT
Excelによる遺伝子名の誤変換 -傾向と対策-
by
Haruka Ozaki
PPT
Kashiwa.R#9 Rでゲノム解析
by
Haruka Ozaki
PPT
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
by
Haruka Ozaki
KEY
Rで塩基配列を扱う方法
by
Haruka Ozaki
KEY
FDRの使い方 (Kashiwa.R #3)
by
Haruka Ozaki
PDF
距離まとめられませんでした
by
Haruka Ozaki
160817 ISMB2016読み会
by
Haruka Ozaki
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
by
Haruka Ozaki
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
by
Haruka Ozaki
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
by
Haruka Ozaki
巨大な表を高速に扱うData.table について
by
Haruka Ozaki
Excelによる遺伝子名の誤変換 -傾向と対策-
by
Haruka Ozaki
Kashiwa.R#9 Rでゲノム解析
by
Haruka Ozaki
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
by
Haruka Ozaki
Rで塩基配列を扱う方法
by
Haruka Ozaki
FDRの使い方 (Kashiwa.R #3)
by
Haruka Ozaki
距離まとめられませんでした
by
Haruka Ozaki
変分ベイズ法の説明
1.
15.06.17 変分ベイズ法の説明 尾崎 遼 http://research.microsoft.com/en-us/um/people/cmbishop/outreach.htm
2.
目次 概要 点推定とベイズ推定 最尤推定とEMアルゴリズム 変分ベイズ推定とVB-EMアルゴリズム 変分ベイズ推定の性質 生物学への応用 2
3.
概要 変分ベイズ法 • 確率モデルの潜在変数およびパラメータの事後分布を求 める手法の一種 • 事後分布を近似することで計算を簡単にしている •
因子分解可能という仮定を置く • 決定論的な手法 • MCMCなどのサンプリング法は確率的 3
4.
点推定とベイズ推定 例えば、 というモデルで予測分布を求めるには? • 点推定 •
特定のパラメータの値 ( というモデル) による推定 4 • ベイズ推定 • パラメータの事後分布 を用いて周辺化 最尤推定やMAP推定で 点推定したパラメータの値 xの新しい予測値 推定に用いたデータ
5.
最尤推定とEMアルゴリズム 観測変数 X と潜在変数
Z があるとき、 5 を最大にするパラメータ θ を求めるのが最尤推定 この最尤推定を行うための2段階の繰り返し最適化が EMアルゴリズム
6.
最尤推定とEMアルゴリズム: 下界 方針: 対数尤度
の下界 を最大化する 6 ln p(X|θ)の下界 (Lower bound) Jensenの不等式より E step M step
7.
最尤推定とEMアルゴリズム: E step 7 のとき、下限
が最大となる KLダイバージェンス なので 0以上 qが含まれて いないので定数 はθの現在の値とする
8.
最尤推定とEMアルゴリズム: M step 8 エントロピー (θがはいっていないので定数) Q関数 (完全データ対数尤度の qに関する期待値) の解を新しいθにする は現在のZの事後分布とする Q関数を最大化するために
9.
点推定の欠点 点推定では分布がなだらかな場合や単峰でない場合に 偏った推定になる 隠れ変数が1層だけのときしか適用できない 過学習 → ベイズ推定 9
10.
バイオインフォマティクスと推定問題 解空間が巨大・各解の尤度は微小 • 例: RNA二次構造、系統樹 →点推定がよい予測につながらない 10Hamada,
Briefings in Bioinformatics, 2013
11.
変分ベイズの目的と手段 最尤法 • 目的: 尤度
を最大にするパラメータを求める • 実現手段: EMアルゴリズム(二段階の繰り返し最適化) 変分ベイズ • 目的: 周辺尤度 (モデルエビデンス) を最大にするパラ メータの事後分布を求める • 手段: VB-EMアルゴリズム(二段階の繰り返し最適化) 11
12.
変分ベイズとVB-EMアルゴリズム: 下限 12 Jensenの不等式より ln p(X)の下限 最尤法の時と異なり、この下限はそのままでは最大化できない(と する) そこで因子分解可能という仮定を置き、計算しやすい形に近似する
13.
変分ベイズとVB-EMアルゴリズム: 因子分解 因子分解可能 (factorization)
な分布によって、真の事 後分布を近似します • Z を独立な因子に分解し、潜在変数およびパラメ ータの同時事後分布を各因子の事後分布の積で近 似する 13 「事後分布を求める」問題から 「因子分解可能な近似分布の中でできるだけ真の事後 分布に近い分布を求める」問題に変換
14.
変分ベイズとVB-EMアルゴリズム: 変分下限 14 方針: 対数周辺尤度の変分下限
を最大化する 各因子について ln p(X)の変分下限
15.
変分ベイズとVB-EMアルゴリズム: 更新式 15 qi はZiの確率分布だから j以外の因子に関する対数同時分布の期待値 のexp()と
q_j の間のKLダイバージェンス → これをゼロにすることが最大化につながる 変分下限 L(q) をq_j = q_j(Z_j) について整理する
16.
変分ベイズとVB-EMアルゴリズム: 更新式 16 PRML下巻の式(10.9) 前頁の結果から、KLダイバージェンスをゼロにするのは以下のとき: この式を各因子の現在の事後分布を用いて順番に計算する j以外の因子の現在の事後分布に関して XとZの対数同時分布の期待値をとることに相当
17.
変分ベイズとVB-EMアルゴリズム: 具体的なモデル 17 XZπ 因子分解可能という仮定により、潜在変数とパラメータの事後分布は以下のようになる
18.
変分ベイズとVB-EMアルゴリズム: 具体的なモデル 18 変分下限(最大化する対象)を計算していく πの事後分布が事前分布と離れないようにする制約項とみなせる →過学習を防いでいる πの事前分布を導入せずにπの点推定を 行えば、最尤推定(EMアルゴリズム) と同じになる(あるθの値でのみ分布関 数のクラスを仮定すると考えてもよい)
19.
変分ベイズとVB-EMアルゴリズム 19 変分E step 変分M step 潜在変数の現在の事後分布を用いてパラメータの事後分布を改良する パラメータの現在の事後分布を用いて潜在変数の事後分布を改良する この式 or 変分下限を具体的に計算し パラメータおよび潜在変数 について最適化する を解く 更新式の導出方法
20.
まとめ 20 最尤法 変分ベイズ 与えられているも の 同時分布 p(X,Z|θ)
同時分布 p(X,Z) 目的 対数尤度 ln p(X|θ)を最大にする パラメー タを求める 対数周辺尤度(=モデルエビデンス) ln p(X) を最大にする パラメータの事後分布を求 める 目的関数の分解 ln(X|θ)= L(q, θ) + KL(q||p) ln(X) = L(q) + KL(q||p) 目的の再定義 下界 L(q, θ)の q(Z)とθに関する最大化 変分下限 L(q) の q(Z) に関する最大化 手続き EMアルゴリズムによる繰り返し最適化 VB-EMアルゴリズムによる繰り返し最適化 潜在変数に関する 最適化 パラメータの現在の値を用いて 潜在変数 の事後分布を改良する パラメータの現在の事後分布を用いて 潜 在変数の事後分布を改良する パラメータに関す る最適化 潜在変数の現在の事後分布を用いて パラ メタを更新する 潜在変数の現在の事後分布を用いて パラ メータの事後分布を改良する 注目した因子以外の因子に関して同時分布の期待値を計算したものを新しい値 or 分布にする
21.
参考文献 C. M. ビショップ「パターン認識と機械学習
下」 9-10章 渡辺澄夫「ベイズ統計の理論と方法」 5章 • 平均場近似から自己無矛盾条件を導く形で説明している 佐藤一誠「トピックモデルによる統計的潜在意味解析」自然言語処理シリー ズ 8 コロナ社 Daichi Mochihashi “自然言語処理のための変分ベイズ法” • http://www.ism.ac.jp/~daichi/paper/vb-nlp-tutorial.pdf 21
22.
生物学への応用 個々の遺伝子発現の状態がいくつあるか問題 • Nikaido et
al., PLOS One, 2011 • 混合ガウスのKの数も推定 22 RNA-seqによる転写産物量推定問題 • Nariai et al., Bioinformatics, 2013 • 複雑な生成モデルの計算を容易にした DNA断片からのハプロタイプ推定問題 • Matsumoto et al., BMC Genomics, 2013 • 複雑な生成モデルの計算を容易にした
23.
余談 下界の導出方法には2通りある • Jensen の不等式を使う •
対数周辺尤度をKL divergence との和の形にする 具体的な更新式の導出方法には2通りある • 一般的な最適解の式にモデルの式を代入する • ラグランジュの未定乗数法で各パラメータについて変分 下限を最大化する 23
24.
「事後分布を探すのが難しい」から始まる説明 (1) ベイズ推定の問題の一つは事後分布の計算が困難であるという ことだ 代わりに、事後分布を因子分解可能という仮定を置いて近似し た近似事後分布を考える この近似事後分布 (q) をなるべく真の事後分布
(p) に近づける ために、qとpのKLダイバージェンスを考える 24
25.
「事後分布を探すのが難しい」から始まる説明 (2) しかし、目的関数に計算が困難であるpが含まれているため、この最適 化問題は計算が困難である 一方、対数周辺尤度は以下のように分解できる 左辺はqに関して一定なので、KLの最小化問題は変分下限 L の最大化問 題と同じである。そこで、変分下限の最大化を考える。 25
26.
余談 EMアルゴリズムで下界、変分ベイズで下限と呼ぶ理 由はよくわかりませんでした • 原著ではどちらも lower
bound となっていた 26
27.
余談 「10.4 指数分布族」の変分Eステップと変分Mステッ プの記述(p. 206)はEとMが逆な気がする 27
Download