SlideShare a Scribd company logo
1 of 21
Download to read offline
+
PRML 14章	
BreadCompany CEO すみもとぱんいち
+
目次	
n  モデルの結合
n  ベイズモデル平均化とモデルの結合の違い
n  モデル集合内から個々の予測を平均する(コミッティ)
n  具体的なアンサンブルのモデル例の紹介
n  ブースティング
n  adaboostの仕組み
n  ブースティングの解釈
n  木構造モデル
n  条件つき混合モデル
n  線形回帰モデルの混合
n  ロジスティックモデルの混合
n  混合エキスパートモデル
+
モデルの結合	
n  複数のモデルを何らかの方法で組み合わせる(アンサンブルす
る)と精度がでる
n  L個の異なるモデルを訓練し、各モデルの予測の平均値を予測値と
して用いる(コミッティ)
n  複数のモデルを逐次的に訓練する(ブースティング)
n  予測に用いる一つのモデルを入力関数の関数として選択する
n  決定木: ハードな分割
n  階層的混合エキスパートモデル: ソフトな分割
n  コミッティ
n  バギング
n  ブースティング
+
ベイズモデル平均化と
モデルの結合の違い	
n  ベイズモデル平均化
n  p(h): どのモデルが選択されるか
n  p(X|h): あるモデルを選んだときのデータ集合全体の生成
n  つまり、データが多くなると一つの仮説に収束する
n  モデルの結合
n  観測されたデータ点xごとに対応する潜在変数zが存在する
n  潜在変数zはどのモデルの要素なのかを示す
n  ex) 混合ガウス分布
+
モデル集合内から
個々の予測を平均する(コミッティ)	
n  モデル誤差 = バイアス + バリアンス
n  バイアス: モデルの性能による誤差
n  バリアンス: モデルの個々のデータ点に対する感度
n  バリアンスが大きくても、
平均化することで、
分散項はキャンセルし、
予測性能は改善される。
バリアンス大
バイアス小
バイアス大
バリアンス小
+
モデル集合内から
個々の予測を平均する(コミッティ)	
n  しかし、平均をとるといってもデータ集合は一つしかない
→M個のブートストラップ集合をつくる
n  ブートストラップとは
n  データセットから復元抽出でN個のデータをとりだしたものを、M
セットつくる手法
n  ブートストラップ集約(バギング)
n  y_m(x): データ集合mに対する予測
+
モデル集合内から
個々の予測を平均する(コミッティ)	
n  誤差が小さくなる理由(数式)
h(x): 本当の回帰関数
ε(x): ノイズ	
あるモデルの誤差	
モデルの誤差の平均値	
モデルの結合による誤差
+
モデル集合内から
個々の予測を平均する(コミッティ)	
n  誤差が小さくなる理由(数式)
n  実際は同じデータセットからデータをつくっているため、
無相関ということはないが、誤差は小さくなる。
誤差の平均が0で無相関ならば、	
が得られる
+
ブースティング	
n  AdaBoostとは
n  ベース分類器(弱学習器)を逐次的に訓練するモデル
n  重み付けられた間違ったデータ集合の最小化
n  重み付けは分類器の性能に依存
n  初期重みは1/N
n  誤分類されたデータ点の重みは
増加する
+
ブースティングのアルゴリズム	
n  (a)重み付けられた間違った
データ集合Jの最小化
n  (b)間違ったデータ率(ε)を計算
n  εは0~1
n  ε→ 1のときα → - ∞
n  ε→ 0のときα → ∞
n  (c)重み係数の更新
n  最終的な予測モデル
+
ブースティングの学習の様子	
n  緑の線がアンサンブルされた決定境界
n  黒の線が最新のベース学習器の決定境界
n  重みが大きいデータは円の大きさが大きくなっている
+
ブースティングの解釈	
n  指数誤差の逐次的最小化を考えると、ブースティングを単純に
解釈することができる(数式を追えばわかる)
指数誤差	
ブースティングによるモデル	
y, αについて微分を考えればよい
+
ブースティングの誤差関数(指数誤差)	
n  指数誤差を最小にするy(x)は変分法によって対数オッズ
の半分の値となる
n  ブースティングはこのy(x)に値を近づけている
指数誤差関数(緑)は
誤分類に対して、強
いペナルティを与え
ている。
+
木構造モデルとは	
n  入力空間を多次元の矩形領域に区分するモデル
+
木構造モデルの作り方	
n  誤差が小さくなるように分割していく
n  誤差の種類
n  二乗和残差(回帰)
n  負の交差エントロピー誤差関数(分類)
n  ジニ係数(分類)
n  大きな木に成長させた後、枝刈りを
行う
n  分割しすぎると過学習をおこしてしまう
n  残留誤差とモデルの複雑さに関する
尺度をバランスさせる
+
木構造モデルの問題点	
n  データ集合の細部に対して非常に敏感
→訓練データのわずかな変化で大きく分類結果が異なる
n  分割を特徴空間の軸に沿わせているため、45度の境界をひくの
が大変
n  入力空間をハードに分割しているため、各領域に対して、ただ
一つの葉ノードモデルが関連付けられる
n  回帰において、滑らかな関数をモデル化できず、分割境界で不
連続になる
+
条件つき混合モデル	
n  線形回帰モデルの混合
n  ロジスティック回帰モデルの混合
n  混合エキスパートモデル
n  階層的混合エキスパートモデル
n  すべての入力変数を考慮した関数によるソフトな確率的な分割を
行う
n  決定木(比較)
n  入力空間での軸に沿ったハードな分割
n  解釈はしやすいが、ハードな分割に制限されてしまう
+
線形回帰モデルの混合	
n  k個の線形回帰モデルの重ね合わせ
n  混合ガウス分布の拡張を考えればよい
n  学習はEMアルゴリズムをつかう
n  Q関数の最大化	
対数尤度関数	
完全対数尤度関数	
Q関数	
Q関数最大化によって
求められるパラメータ
+
線形回帰モデルの混合	
左: 混合モデル
右: 単一の線形回帰モデル	
負担率の学習の様子	
混合モデルの
学習の様子	
データの存在しない領域にも大きな確率値をもつ領域を作ってしまう...
+
ロジスティックモデルの混合	
n  k個のロジスティックモデルの重ね合わせ
n  学習はEMアルゴリズム
n  wの更新は解析的に求まらないためIRLSも使う	
IRLSによるwの更新	
ヘッセ行列	
Q関数
+
混合エキスパートモデル	
n  混合係数それ自身が入力変数の関数
n  π(x): ゲート関数
n  p_k(t|x): エキスパート
n  EMアルゴリズムによる最適化において、Mステップの各混合
構成要素とゲートモデルが凸最適化になる
n  階層的混合エキスパートモデル(HME)
n  混合された各構成要素それ自身が混合分布であるような混合分布
n  決定木の確率的なバージョン
n  混合密度ネットワークと近い関係

More Related Content

More from ぱんいち すみもと

More from ぱんいち すみもと (12)

Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
 
Dual dl
Dual dlDual dl
Dual dl
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
 
Intro VAE
Intro VAEIntro VAE
Intro VAE
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
 
PRML 9章
PRML 9章PRML 9章
PRML 9章
 

PRML 14章