Submit Search
Upload
ディープボルツマンマシン入門〜後半〜
•
Download as PPTX, PDF
•
3 likes
•
2,961 views
S
sakaizawa
Follow
10月20日に行われたDL勉強会の資料です。
Read less
Read more
Science
Report
Share
Report
Share
1 of 39
Download now
Recommended
Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会
Taikai Takeda
2015/8/5 深層学習本読み会 Chapter 8 ボルツマンマシン (http://ml-professional.connpass.com/event/17756/) の発表資料です
ディープボルツマンマシン入門
ディープボルツマンマシン入門
Saya Katafuchi
ゼミで発表した資料のまとめ ディープラーニングの基本的な部分の説明です
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
okku apot
自分用のまとめです。内容等には一切の責任を持ちません。 ブログ↓ http://want-to-be-rikei.blogspot.jp
制限ボルツマンマシン入門
制限ボルツマンマシン入門
佑馬 斎藤
ゼミで使った資料です。時間の都合から、隠れ変数を含むボルツマンマシンの解説を省略しています。
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
Yuta Sugii
2017年5月 会津大学にて行った『深層学習』勉強会第5回目のスライドです。ボルツマンマシンについて説明しました。
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
2014年11月13日開催の全脳アーキテクチャ若手の会 第3回Deep Learning勉強会の資料です。RBMの動作原理をポイントを押さえて解説しました。参考資料を後ろに纏めましたのでご自由にご活用ください。
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
Restricted Boltzmann Machinesの基礎と実装
Deeplearning4.4 takmin
Deeplearning4.4 takmin
Takuya Minagawa
5/22 CV勉強会@関東の発表資料
Recommended
Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会
Taikai Takeda
2015/8/5 深層学習本読み会 Chapter 8 ボルツマンマシン (http://ml-professional.connpass.com/event/17756/) の発表資料です
ディープボルツマンマシン入門
ディープボルツマンマシン入門
Saya Katafuchi
ゼミで発表した資料のまとめ ディープラーニングの基本的な部分の説明です
深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
okku apot
自分用のまとめです。内容等には一切の責任を持ちません。 ブログ↓ http://want-to-be-rikei.blogspot.jp
制限ボルツマンマシン入門
制限ボルツマンマシン入門
佑馬 斎藤
ゼミで使った資料です。時間の都合から、隠れ変数を含むボルツマンマシンの解説を省略しています。
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
Yuta Sugii
2017年5月 会津大学にて行った『深層学習』勉強会第5回目のスライドです。ボルツマンマシンについて説明しました。
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
2014年11月13日開催の全脳アーキテクチャ若手の会 第3回Deep Learning勉強会の資料です。RBMの動作原理をポイントを押さえて解説しました。参考資料を後ろに纏めましたのでご自由にご活用ください。
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
Restricted Boltzmann Machinesの基礎と実装
Deeplearning4.4 takmin
Deeplearning4.4 takmin
Takuya Minagawa
5/22 CV勉強会@関東の発表資料
prml_titech_9.0-9.2
prml_titech_9.0-9.2
Taikai Takeda
PRML 9.0-9.2 混合ガウス分布とEMアルゴリズムの資料
確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
__106__
修論公聴会に使った資料
Statistical machine learning
Statistical machine learning
ilove2dgirl
統計的機械学習についての説明。
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
Takuma Yagi
Probabilistic Graphical Models輪読会 #2のLTで発表した論文紹介になります。物体検出にコンテキストを用いようとした初期の論文です。
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
グラフィカルモデル輪読会での発表資料です。 http://wbawakate.connpass.com/event/31613/
入門パターン認識と機械学習12章
入門パターン認識と機械学習12章
hiro5585
入門パターン認識と機械学習12章 関連ベクトルマシン
Limits on Super-Resolution and How to Break them
Limits on Super-Resolution and How to Break them
Morpho, Inc.
今回は、マルチフレーム超解像の限界について論じた文献を紹介します。 超解像とは、低解像度の画像から高解像度の画像を復元する技術を言います。超解像は、監視カメラ、内視鏡、スマートフォン、および、デジタルカメラに搭載されるデジタルズーム機能などに応用されています。昨年4月に、史上初めてブラックホールが撮影されて大きなニュースとなりましたが、この撮影にも超解像技術が使われています。 超解像の手法としては、使用する低解像度画像の枚数によって ・1枚のみ使用: シングルフレーム超解像 ・複数枚使用: マルチフレーム超解像 に分かれます。シングルフレーム超解像の場合、元の画像に存在しない高周波成分を何らかの手法で推測する必要があります。最近はdeep learning で推測する手法が多い印象です。一方、マルチフレーム超解像の場合、複数枚の元画像から多くの情報が得られるため、このような推測に頼らずに復元が可能……なように直感的には思えます。しかしながら、実際にはそうではないというのが今回のお話になります。 Morpho, Inc. Website: https://www.morphoinc.com/ Tech Blog: https://techblog.morphoinc.com/
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#7 前回までのあらすじ の資料
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
sleepy_yoshi
ICML2013読み会 Distributed training of Large-scale Logistic models の発表資料
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#9 前回までのあらすじ資料
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
最新版のスライドは http://www.akihironitta.com/slides/ で公開しています。 The latest version of this slides is available at http://www.akihironitta.com/slides/.
Prml7 7.1
Prml7 7.1
Satoshi Kawamoto
Prml14 5
Prml14 5
正志 坪坂
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
Morpho, Inc.
今回は、最適化アルゴリズムとノイズ除去アルゴリズムを組み合わせた非線形画像復元のフレームワークを紹介します。 画像復元とは、劣化した観測画像からクリーンな未知の原画像を推定するタスクであり、ボケ除去や超解像、インペインティングなど幅広い問題を内包しています。 一般に、観測画像は原画像の情報を十分に持っていないので、原画像の推定は劣決定となり解が一意に定まりません。 そのため、原画像に関する事前知識(Prior)を与えた最適化問題として画像復元を定式化し、解空間に制約を与えることがよく行われます。 制約付き最適化問題の解放として、ADMM(Alternating Direction Method of Multipliers; 交互方向乗数法)が有名です。 ADMMは非 Deep Learning 系の反復アルゴリズムの一種であり、もとの問題を複数の小さな部分問題に分割し順番に更新することで最適化を実現します。 また、部分問題が単純であれば一次収束が保証されるメリットがあります。 ------------------ Morpho, Inc. Website: https://www.morphoinc.com/ Tech Blog: https://techblog.morphoinc.com/
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
Morpho, Inc.
今回はエッジ保存に注目した画像フィルタについて紹介します。 画像中のノイズの除去(デノイジング)や、不要なテクスチャの除去(スムーシング)等のタスクにエッジ保存系のフィルタがよくアルゴリズムとして使われています。具体的にはBilateral FilterやGuided Filterと呼ばれているものが有名です。これらは、反復的に最適解を求める手法((TV最適化など))と比べて品質は劣りますが、処理が速いためリアルタイム処理が可能という実用性があります。 今回紹介する2つの論文の手法は、どちらも非常にシンプルなアルゴリズムの画像フィルタであり、既存の手法より高い効果が得られるものとなっています。 Morpho, Inc. Website: https://www.morphoinc.com/ Tech Blog: https://techblog.morphoinc.com/
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
2019/09/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_face
ishii yasunori
Icp3.2 takmin
Icp3.2 takmin
Takuya Minagawa
第12回コンピュータビジョン勉強会@関東の発表資料です。
M1 gp_Disco
M1 gp_Disco
Takuya Shimojoh
M1GPのスライドです。テーマは低duty cycleでのランデブーアルゴリズム。 DSのこと話していた人です。
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
Nagi Teramo
第五回Tokyo.Scipyでのトーク資料です。
More Related Content
What's hot
prml_titech_9.0-9.2
prml_titech_9.0-9.2
Taikai Takeda
PRML 9.0-9.2 混合ガウス分布とEMアルゴリズムの資料
確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
__106__
修論公聴会に使った資料
Statistical machine learning
Statistical machine learning
ilove2dgirl
統計的機械学習についての説明。
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
Takuma Yagi
Probabilistic Graphical Models輪読会 #2のLTで発表した論文紹介になります。物体検出にコンテキストを用いようとした初期の論文です。
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
グラフィカルモデル輪読会での発表資料です。 http://wbawakate.connpass.com/event/31613/
入門パターン認識と機械学習12章
入門パターン認識と機械学習12章
hiro5585
入門パターン認識と機械学習12章 関連ベクトルマシン
Limits on Super-Resolution and How to Break them
Limits on Super-Resolution and How to Break them
Morpho, Inc.
今回は、マルチフレーム超解像の限界について論じた文献を紹介します。 超解像とは、低解像度の画像から高解像度の画像を復元する技術を言います。超解像は、監視カメラ、内視鏡、スマートフォン、および、デジタルカメラに搭載されるデジタルズーム機能などに応用されています。昨年4月に、史上初めてブラックホールが撮影されて大きなニュースとなりましたが、この撮影にも超解像技術が使われています。 超解像の手法としては、使用する低解像度画像の枚数によって ・1枚のみ使用: シングルフレーム超解像 ・複数枚使用: マルチフレーム超解像 に分かれます。シングルフレーム超解像の場合、元の画像に存在しない高周波成分を何らかの手法で推測する必要があります。最近はdeep learning で推測する手法が多い印象です。一方、マルチフレーム超解像の場合、複数枚の元画像から多くの情報が得られるため、このような推測に頼らずに復元が可能……なように直感的には思えます。しかしながら、実際にはそうではないというのが今回のお話になります。 Morpho, Inc. Website: https://www.morphoinc.com/ Tech Blog: https://techblog.morphoinc.com/
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#7 前回までのあらすじ の資料
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
sleepy_yoshi
ICML2013読み会 Distributed training of Large-scale Logistic models の発表資料
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#9 前回までのあらすじ資料
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
最新版のスライドは http://www.akihironitta.com/slides/ で公開しています。 The latest version of this slides is available at http://www.akihironitta.com/slides/.
Prml7 7.1
Prml7 7.1
Satoshi Kawamoto
Prml14 5
Prml14 5
正志 坪坂
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
Morpho, Inc.
今回は、最適化アルゴリズムとノイズ除去アルゴリズムを組み合わせた非線形画像復元のフレームワークを紹介します。 画像復元とは、劣化した観測画像からクリーンな未知の原画像を推定するタスクであり、ボケ除去や超解像、インペインティングなど幅広い問題を内包しています。 一般に、観測画像は原画像の情報を十分に持っていないので、原画像の推定は劣決定となり解が一意に定まりません。 そのため、原画像に関する事前知識(Prior)を与えた最適化問題として画像復元を定式化し、解空間に制約を与えることがよく行われます。 制約付き最適化問題の解放として、ADMM(Alternating Direction Method of Multipliers; 交互方向乗数法)が有名です。 ADMMは非 Deep Learning 系の反復アルゴリズムの一種であり、もとの問題を複数の小さな部分問題に分割し順番に更新することで最適化を実現します。 また、部分問題が単純であれば一次収束が保証されるメリットがあります。 ------------------ Morpho, Inc. Website: https://www.morphoinc.com/ Tech Blog: https://techblog.morphoinc.com/
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
Morpho, Inc.
今回はエッジ保存に注目した画像フィルタについて紹介します。 画像中のノイズの除去(デノイジング)や、不要なテクスチャの除去(スムーシング)等のタスクにエッジ保存系のフィルタがよくアルゴリズムとして使われています。具体的にはBilateral FilterやGuided Filterと呼ばれているものが有名です。これらは、反復的に最適解を求める手法((TV最適化など))と比べて品質は劣りますが、処理が速いためリアルタイム処理が可能という実用性があります。 今回紹介する2つの論文の手法は、どちらも非常にシンプルなアルゴリズムの画像フィルタであり、既存の手法より高い効果が得られるものとなっています。 Morpho, Inc. Website: https://www.morphoinc.com/ Tech Blog: https://techblog.morphoinc.com/
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
2019/09/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_face
ishii yasunori
Icp3.2 takmin
Icp3.2 takmin
Takuya Minagawa
第12回コンピュータビジョン勉強会@関東の発表資料です。
M1 gp_Disco
M1 gp_Disco
Takuya Shimojoh
M1GPのスライドです。テーマは低duty cycleでのランデブーアルゴリズム。 DSのこと話していた人です。
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
Nagi Teramo
第五回Tokyo.Scipyでのトーク資料です。
What's hot
(20)
prml_titech_9.0-9.2
prml_titech_9.0-9.2
確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
Statistical machine learning
Statistical machine learning
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
論文紹介:Using the Forest to See the Trees: A Graphical. Model Relating Features,...
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
入門パターン認識と機械学習12章
入門パターン認識と機械学習12章
Limits on Super-Resolution and How to Break them
Limits on Super-Resolution and How to Break them
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Prml7 7.1
Prml7 7.1
Prml14 5
Prml14 5
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_face
Icp3.2 takmin
Icp3.2 takmin
M1 gp_Disco
M1 gp_Disco
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
ディープボルツマンマシン入門〜後半〜
1.
ディープボルツマンマシン入 門 〜後半〜
2014/10/20 小町研究室B4 堺澤勇也
2.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの学習 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
3.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの学習 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
4.
隠れ変数ありのボルツマンマシン 目的
学習 観測データセットに対して(n + m)次元の確率変数 を持つボルツマンマシンを用いて学習を行うこと n : N個の観測データ点の次元 m : 観測データとは関係ない次元 観測データ点の次元より学習モデルの次元の方が 高いので、すべての変数が各観測データ点に対応 するわけではない
5.
隠れ変数ありのボルツマンマシン学習の例 (n+m)次元の変数のうち、ノード番号(確率変数の添え字) の若い順に並べ、最初のn次元を各観測データに対応させる(可視変数)
残りのm次元の変数は観測データとは関係のない変数(非可視変数)とすここで、 観測データ点に対応するノード番号の集合を푉 = {1, ⋯ , 푛} とし対応しないノード番号の集合を퐻 = {푛 + 1, ⋯ , 푛 + 푚} とする ノード全体の集合はΩ = 푉 + 퐻で表すことができる 1 2 3次元の観測データセットに対し、5次元のボルツマンマシン を用いて学習するとき、 푉 = {1,2,3} 퐻 = {4,5} 푋 = {푋1, 푋2, 푋3, 푋4, 푋5} = {푣1, 푣2, 푣3, ℎ4, ℎ5} であり、ノード1~3は可視変数、ノード4,5は非可視変数として3 4 5 三次元の観測データセットを 5次元のボルツマンマシンを 用いて学習する例 青丸:可視変数 白丸:隠れ変数
6.
隠れ変数ありのボルツマンマシン の 確率モデル
隠れ変数を含む場合でも、確率変数の表記法が変化するだけで、定義 そのものは変わらないことに注意 隠れ変数がある場合は、隠れ変数に関して周辺かした可視変数vのみの n次元の確率分布 を用いる この周辺分布は貸し変数ノン身の確率分布であるため、すべての変数 にデータが対応しており、4章の時と同様な方法で尤度関数を作るこ とができ、 で表される。最尤解は、この対数尤度関数を最大化するパラメータの 値となる。
7.
KL情報量最小化の観点 今回場合、観測データセットの経験分布QD(v)とボル ツマンマシンの確率分布を近づける
以下のKL情報量を最小化することで学習は達成され る
8.
隠れ変数がある場合の ボルツマンマシンの学習方程式① 対数尤度関数の最大化条件、もしくはKL情報下の最
小化の条件より、隠れ変数がある場合のボルツマン マシンの学習方程式は となる。ここでziは のようにノードi が可視変数ノードか隠れ変数ノード かに応じて変換される変数である
9.
隠れ変数がある場合の ボルツマンマシンの学習方程式② また、PH|V(h|v,θ,ω)は可視変数が与えられたもとでの
隠れ変数の確率であり、ベイズの公式より、 によって与えられる EB[・・・|θ,ω]はこれまどと同様ボルツマンマシンの 期待値を表す記号であり、 である。
10.
隠れ変数導入の動機 何らかの原因で一部のデータが得られない場合に、 →
得られないデータに対応する変数を隠れ 変数として扱う 学習モデルの表現能力の向上 表現能力: パラメータの値を変化させることに より再現出来る確率分布の種類の多さ
11.
モデル誤差 学習モデルは人間が勝手に仮定したモデルであるの で、仮定したモデルが本当に知
りたい未知の生成モデルを含んでる保証は無い 学習モデルの表現能力が低ければ、生成モデルとの 間には一般的に誤差が生まれる→ モデル誤差 表現能力を上げることは この楕円を大きくすること に等しい 学習モデルを複雑にするこ とにより達成出来る
12.
ボルツマンマシンを複雑化する方 法 1.
エネルギー関数の関数系をより複雑なものにする →エネルギー関数に三次以上の相互作用の項を加えた高次ボルツマ ンシンも提案されている →難しい 2. 隠れ変数の導入 →エネルギー関数の関数系を変えることなくモデルを複雑化出来る (例) 隠れ変数がある場合は隠れ変数について周辺化した可視変数のみの分 布PV(v|θ, ω) に注目し、最尤法を適用した。PV(v|θ, ω) は と表され、一般に元のボルツマンマシンに比べて複雑なエネルギー関 数を持つ。
13.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの学習 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
14.
リストリクティッドボルツマンマシン (Restricted Bolzmann
Machine : RBM) 完全2部グラフ上に定義された隠れ変数ありのボル ツマンマシン 完全2部グラフ上に定義されたRBM 同窓内のリンク結合はなし 異層間のリンク結合のみ存在する 可視変数はn個、隠れ変数はm個 それぞれ V = {1, …, n} H = {n + 1, … , n + m}
15.
RBMのエネルギー関数と確率モデ ル 可視変数と隠れ変数をそれぞれvとhと表すと、RBMのエネル
ギー関数は下のようになる Θv : 可視変数に対するバイアス Θh : 隠れ変数に対するバイアス 上の式から、RBMの確率モデルは下のように表せる 以下、表記の簡略化のためにパラメータをΘで表す Θ = {θv, θh, ω}
16.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの学習 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
17.
RBMの学習方程式 RBMは5章で見たきた隠れ変数ありのボルツマンマ シンの一つの特別なケースなので、学習の解は学習
方程式(16, 17)に準ずる N個のn次元雁足データセットDを得たとすると、 RBMの学習方程式(16) は以下のようになる
18.
学習方程式(17) は、 となる。EB[…|Θ]は式(19)
のRBMに関する期待値である。 (20a)、(20b)、(21)の左辺は観測データの値を用いて簡単に計算可能 右辺はRBMの期待値の計算なので、計算量爆発の可能性がある 何らかの近似的アプローチが必要となる
19.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの性質 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
20.
RBMの性質 RBMは2鵜グラフという特殊なグラフ構造をもつお かげで、通常のボルツマンマシンにはない幾つかの
有用な性質をもつ。 §1 条件付き独立の性質 §2 RBMの周辺確率
21.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの学習 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
22.
§1 条件付き独立の性質 可視層を固定したもとでの隠れ層の条件付き確率は
であり、同様に隠れ層を固定したもとでの可視層で の条件付き確率は となる。
23.
条件付き確率はともに確率変数同士の積の形で表される 片方の層の確率変数が何らかの値に固定されると、もう 片方の層の確率変数は互いに統計的に独立になる
これは層内結合がないからであり、RBM特有の性質であ る → ここからコントラスティブダイバージェンス (contrastive divergence : CD) 法が考案される 層内結合がある一般の場合 → マルコフ連鎖モンテカルロ法(Markov chain Monte Carlo method : MCMC)などを用いる。。。手間がかかる
24.
CD法 CD法: 観測データセットの経験分布を可視変数の初期分布
とし、そこから交互に両層のサンプリングを実行す る。 そして得られたサンプリング点の標本期待値をRBM の期待値として確率的近似学習を行う。 CD法の成功と普及により、ボルツマンマシンが現在 における一定の市民権を得る
25.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの学習 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
26.
§2 RBMの周辺確率 可視変数に関する周辺確率PV(v|Θ)
を簡単に計算できる この周辺下の計算は隠れ変数間の結合が存在しないので可 能 このように周辺確率PV(v|Θ) を具体的に記述することが出来 る → 疑似最尤法などの隠れ変数がない場合に対して考案さ れている近似学習をRBMの学習に適応することが可能と なっている 最近、疑似最尤法を拡張した複合最尤法を利用した学習ア
27.
エネルギー関数(25) をωについてテイラー展開してみる と、
二次以上の高次の相互作用項の効果がエネルギー関数内に存在している 隠れ変数を導入することでボルツマンマシンのエネルギー関数を変更することなく 燃えるの複雑化することが出来る
28.
RBMの可能性 RBMは構造上、系統的な方法でいくらでも隠れ変数 の数を増やすことが出来る。
隠れ変数を増やすごとにモデルの複雑さはあがって いく | H | = m → ∞ の極限では任意の確率分布を表現可能 であることが示されている
29.
目次 5. 隠れ変数ありのボルツマンマシン学習
6. リストリクティッドボルツマンマシン 6.1 RBMの学習方程式 6.2 RBMの学習 §1 条件付き独立の性質 §2 RBMの周辺確率 7. ディープボルツマンマシン
30.
ディープボルツマンマシン (deep Boltzman
machine : DBM) 深層学習の皮切りとなった ディープビリーフネットワーク を拡張したもの 隠れ層を図のように 階層的にに積み上げていく ことで構成される隠れ素子ありボルツマンマシンの一種
31.
DBMのエネルギー関数 V :
可視層のノード番号の集合 Hr : 第r 番目の隠れ層のノードの集合 v = {vi ∈ {+1, -1} | i ∈ V} : 可視変数 h = {hi (r) ∈ {+1, -1} | i ∈ Hr} : 第r 番目の隠れ層内の隠れ変数 R層の隠れ素子からなるDBMのエネルギー関数は、 h(1), … , h(R)をまとめてh、ω(1), … , ω(R)をまとめてWで表す
32.
• ω(r)は第r-1 層と第r
層との間の結合を表してる (この場合、可視層は第0層と言える) • R = 1 の時RBMと等価になるN • RBMとは違いDBMは隠れ変数間の結合を持つため、 RBMとは質的に異なる表現能力を持つことが期待さ れる
33.
DBMの学習 DBMもボルツマンマシンの一種なので、その学習は 原理的にボルツマンマシンの学習方程式に準ずるが、
計算量爆発の問題から、厳密な学習は望めない しかし、隠れ層が階層的に積まれているためRBMの 時のような性質を利用することが出来ない そこで利用されるのが貪欲学習(greedy learning)
34.
貪欲学習(greedy learnig) 近似アルゴリズムの最も基本的な考え方の一つ
問題の要素を複数に部分に分割し、それぞれの部分を独 立に評価し、評価値の高い順に取り組んでいく学習法 DBMの学習では、階層的に積み重なったボルツマンマ シンの層を分割して学習を行っていく(次スライド以降 で説明)
35.
(1) 可視層と第1層の隠れ層に注目し、第2層以上の隠れ層は無視する →
可視層と第1層目の隠れ層は、v とh(1)からなるRBMとみなすことが出来る あとはRBMの学習に則ってvとh(1)との間の結合ω(1)を学習する
36.
(2) h(1)とh(2)に注目し、その他の層は無視してh(1)とh(2)を再びRBMとみなす その際、h(1)を擬似的な可視層としh(2)を隠れそうと考える
このRBMの学習には条件付き確率PH|V(h(1) | v,ω(1))を利用して、 観測データセットからサンプリングしたサンプル点をデータとして利用する (このデータを実際の観測データと区別するために特徴点(feature)と呼ぶこともあ結合ω(2)が学習される
37.
(3) 同様の方法で、h(2)とh(3)に注目し、その他の層は無視してRBMとみなす その際、h(2)を擬似的な可視層としh(3)を隠れそうと考える
このとき、h(1)の特徴点をサンプルした ときと同様の流れで、h(1)の特徴点から 条件付き確率 に従いサンプルしたh(2)のサンプル点を データとし、RBM学習に従いω(3)を学習
38.
解説した貪欲学習は本来のボルツマンマシン学習の目的である 尤度最大化とは異なるもので、あくまで近似的アプローチえあり 数理的な根拠もまだまだ十分でない方法であるが、経験的に比較的
良い学習解を与えることが知られている 貪欲学習は事前学習(pre-training)と呼ばれ、 パラメータの適切な初期値決定に用いられる その後、その初期値をもとにより正確で計算コストの高い学習 アルゴリズム(MCMCなど)でパラメータを調整 事前学習で決定したパラメータの初期値が学習のキーとなる
39.
DBMに適したより良い近似学習アルゴリズムを創出していかなければな らない 先ほど紹介したDBMは層ごとにRBMとみなしながら学習
→ 対数尤度関数を目指すものではないので学習がどのように なっているかわからない → しかし計算量の問題から厳密な計算を行うことは出来ない モデルの構造の意味についてもより考察を深めていく必要がある 深層学習も出るの特徴は実は粗階層性にある →単に隠れ層の数を増やし、モデルの表現力を上げるならRBMで 十分 まとめ
Download now