SlideShare a Scribd company logo
1 of 35
Download to read offline
ガウス過程回帰(GPR)の概要・導出と計算例
大阪大学 石黒研究室 博士後期課程2年 浦井健次
機械学習勉強会@大阪大学豊中キャンパス
参考文献
[1] 中村泰, 石黒浩: Gaussian process regression を用いた確率
的方策に対する方策勾配法, IEICE, 2012.
[2] 大羽成征, 石井信, 佐藤雅昭: ガウス過程法のオンライン学習,
IEICE, 2001.
[3] Carl Edward Rasmussen and Christopher K. Williams:
Gaussian Processes for Machine Learning. Massachusetts
Institute of Technology: MIT-Press, 2006.
[4] C.M. ビショップ, 元田, 栗田, 樋口, 松本, 村田: パターン認識と機
械学習(上)(下) ベイズ理論による統計的予測, Springer, 2007.
[5] Duy Nguyen-tuing and Jan Peters: Local gaussian
process regression for real time online model learning and
control, In In Advances in Neural Information Processing
Systems 22 (NIPS), 2008.
[6] Yuya Okadome, Kenji Urai, Yutaka Nakamura, Tetsuya
Yomo, and Hiroshi Ishiguro: Adaptive LSH based on the
particle swarm method with the attractor selection model
for fast approximation of Gaussian process regression,
Journal of Artificial Life and Robotics, 2014.
発表アウトライン
②ガウス過程回帰の導出
③ガウス過程回帰による関数近似
①ガウス過程回帰概要
① ガウス過程回帰は様々な分野に応用されているカーネル法
の一種であり,多様な課題に対しての応用が期待されている[1].
② また,回帰(関数近似)やクラスタリングにおいてガウス過
程回帰などのカーネル法の有効性が知られている[2].
③ カーネル法では入力空間が高次元であっても,空間内の各点間の近傍
関係をカーネル関数で表現するため,問題は高々データ数のオーダーに落ち
る.さらに,ノイズの多いデータに対して過学習の心配がなく,
汎用性に優れるという特徴を有する.
[1] 中村泰, 石黒浩: Gaussian process regression を用いた確率的方策に対する方策勾配法, IEICE, 2012.
[2] 大羽成征, 石井信, 佐藤雅昭: ガウス過程法のオンライン学習, IEICE, 2001.
ガウス過程回帰(Gaussian Process Regression : GPR)
ガウス過程回帰による推定では,各サンプルは互いに独立で同
一の分布に従って生成される(i.i.d)ものと仮定し,データセット
の持つ統計的性質を再現するように,入力点に対する出力の
推定を行うことが目的となる.その推定値を計算する方法,つ
まりガウス過程回帰の導出方法を説明する.まず,以下のよう
なガウス雑音を伴う線形回帰モデルを考える.
ガウス過程回帰の定義
発表アウトライン
②ガウス過程回帰の導出
③ガウス過程回帰による関数近似
①ガウス過程回帰概要
ガウス雑音を伴う線形回帰モデル
ガウス過程回帰の導出(1/15)
ここで, とし,このノイズは別の入力に対して独立に定ま
るとする.また は,モデルのパラメータである.ここで,得られた
入力ベクトルをまとめて行列 として改めて定義する.また,それぞ
れの入力に対する出力 もまとめてベクトル として定義する.この
とき,入力 が得られた時に出力 が得られる確率を文献[3][4]
を参考に,途中式を埋めながら,次ページ以降で計算していく.
[3] Carl Edward Rasmussen and Christopher K. Williams: Gaussian Processes for Machine Learning. Massachusetts Institute of
Technology: MIT-Press, 2006.
[4] C.M. ビショップ, 元田, 栗田, 樋口, 松本, 村田: パターン認識と機械学習(上)(下) ベイズ理論による統計的予測, Springer, 2007.
ガウス過程回帰の導出(2/15)
入力 が得られた時に出力 が得られる確率:
平均 ,分散 のガウス分布となる.
ガウス過程回帰の導出(3/15)
ここで,事前分布を導入する. と仮定すると,データ , が得られたときの
モデルパラメータ の事後確率 :
ガウス過程回帰の導出(4/15)
ここで と置くと:
続く→
ガウス過程回帰の導出(5/15)
がいえ,平均 ,分散 のガウス分布に従
うことが求められる.つまり,データセット( , ) より, と の対応を示す関数の分
布が得られることがわかる.
ガウス過程回帰の導出(6/15)
以上の結果を用いて予測を行う.つまり,新たに入力 が得られた時に,この入力に
対して構築された分布関数(データセット により学習した予測器)が出す
値を予測する.ここで予測するのはノイズが加わる前の値 である.つまり,
の下で が出力される確率 を計算すればよい.先ほどの結果より,
次式がいえる.
つまり, が定数であることに注意すると :
続く→
ガウス過程回帰の導出(7/15)
つまり : →
が得られた時の の分布は,平均 ,分散 の
ガウス分布に従う.
ガウス過程回帰の導出(8/15)
以上の結果より :
さらに計算を進めるため :
ここまでに得られた
結果のまとめ
結局,これらを計算したい
①
ガウス過程回帰の導出(9/15)
以上の結果より :
ここまでに得られた
結果のまとめ
結局,これらを計算したい
①より
ガウス過程回帰の導出(10/15)
以上の結果より :
ここまでに得られた
結果のまとめ
結局,これらを計算したい
左辺: 右辺:
よって
ここで逆行列の補題: に以下を代入
ガウス過程回帰の導出(11/15)
以上の結果より :
ここまでに得られた
結果のまとめ
結局,これらを計算したい
よって分散は以下のように書ける:
ガウス過程回帰の導出(12/15)
これら の期待値と分散の結果は という記法を導入し,
この時の入力ベクトル の次元を 次元,サンプルサイズを とした上で,
※
と定義することで・・・
ガウス過程回帰の導出(13/15)
ガウス過程回帰の導出(14/15)
ガウス過程回帰の導出(15/15)
を代入する:
よって が得られた.
これらはガウス過程回帰における重要な結果である.
ガウス過程回帰
発表アウトライン
②ガウス過程回帰の導出
③ガウス過程回帰による関数近似
①ガウス過程回帰概要
問題設定: にガウス性のノイズを加えたデータ:
GPRによる関数近似(入力次元1:出力次元1)
が与えられた場合に,元の関数 を推定する関数近似を行った.
※次ページ以降にある実験結果について,予測値から上下に伸びる灰色のライン部分は,
その幅が標準偏差の2倍であり,95%の信頼区間を表している.
訓練データ数: 0
GPRによる関数近似(入力次元1:出力次元1)
訓練データ数: 5
GPRによる関数近似(入力次元1:出力次元1)
訓練データ数: 10
GPRによる関数近似(入力次元1:出力次元1)
訓練データ数: 50
GPRによる関数近似(入力次元1:出力次元1)
訓練データ数:500
GPRによる関数近似(入力次元1:出力次元1)
訓練データ数の数が大きいほど,予測分布の分散が小さくなり,平均値が真の値sin(x)に
近づく.また,オーバーフィッティングも生じておらず,良好な推定結果が得られた.
N=5 N=10 N=500
関数sin(x)の推定 訓練データ数:N
多くの訓練データがあれば,より正確な予測が可能
データ数と推定結果
が与えられた場合に,元の関数 を推定する関数
近似を行った.
問題設定:
GPRによる関数近似(入力次元2:出力次元1)
入力次元を2次元に増やした,関数 にガウス
性のノイズを加えたデータ:
※次ページ以降に示す実験結果の右図は, の断面における回帰の様子を
示している.
GPRによる関数近似(入力次元2:出力次元1)
訓練データ数: 0
GPRによる関数近似(入力次元2:出力次元1)
訓練データ数: 25
GPRによる関数近似(入力次元2:出力次元1)
訓練データ数:100
GPRによる関数近似(入力次元2:出力次元1)
訓練データ数:400
訓練データ数:900
GPRによる関数近似(入力次元2:出力次元1)
入力次元1の場合と同様,データ数の増加に伴い,予測分布の分散が小さくなり,平均値が真
の値に近づく.以上の結果より,ガウス過程回帰によって,全ての対応点を探すことなく高い精度
で非線形回帰を実現できることが確かめられた.
ガウス過程回帰を実際に計算する上で,最も大きな計算量を要する部分は,
の行列の逆行列を計算する部分であり,通常の方法では の計算量がかかる.
また,新しいテスト点が与えられたとき,予測器から得られる予測値の計算には,ベク
トルと行列の掛け算を要し,その計算量は である.
このように,ガウス過程回帰では大きな訓練データ集合に対して,その直接的な適用
は不可能になるため,様々な近似手法が提案されており[4],厳密な手法と比較して,
より高速に,より大きな訓練集合に大して適用可能となっている.
サンプルサイズの増加が憂慮される実問題においては,その適用に向けた高速化が大
きな課題である.近年,データセットを局所で分割することでガウス過程回帰の計算を
高速化するlocal GP等が提案されており[5],他にはハッシュ関数を利用したガウス過程
回帰の高速化も提案されている[6].
おわりに:ガウス過程回帰の計算コストと高速化
[4] C.M. ビショップ, 元田, 栗田, 樋口, 松本, 村田: パターン認識と機械学習(上)(下) ベイズ理論による統計的予測, Springer, 2007.
[5] Duy Nguyen-tuing and Jan Peters: Local gaussian process regression for real time online model learning and control, In In Advances
in Neural Information Processing Systems 22 (NIPS), 2008.
[6] Yuya Okadome, Kenji Urai, Yutaka Nakamura, Tetsuya Yomo, and Hiroshi Ishiguro: Adaptive LSH based on the particle swarm method
with the attractor selection model for fast approximation of Gaussian process regression, Journal of Artificial Life and Robotics, 2014.

More Related Content

What's hot

ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
顕著性マップの推定手法
顕著性マップの推定手法顕著性マップの推定手法
顕著性マップの推定手法Takao Yamanaka
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-sleepy_yoshi
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing FlowAkihiro Nitta
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
識別モデルと生成モデルと損失データ
識別モデルと生成モデルと損失データ識別モデルと生成モデルと損失データ
識別モデルと生成モデルと損失データShohei Miyashita
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)Hidetoshi Matsui
 

What's hot (20)

ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
顕著性マップの推定手法
顕著性マップの推定手法顕著性マップの推定手法
顕著性マップの推定手法
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
識別モデルと生成モデルと損失データ
識別モデルと生成モデルと損失データ識別モデルと生成モデルと損失データ
識別モデルと生成モデルと損失データ
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
 

Viewers also liked

머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian Processes머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian ProcessesJungkyu Lee
 
Morphological computation 概要(形態を活用するロボット)
Morphological computation 概要(形態を活用するロボット)Morphological computation 概要(形態を活用するロボット)
Morphological computation 概要(形態を活用するロボット)Kenji Urai
 
二関節筋・シナジーとロボティクス
二関節筋・シナジーとロボティクス二関節筋・シナジーとロボティクス
二関節筋・シナジーとロボティクスKenji Urai
 
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要Kenji Urai
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 

Viewers also liked (6)

머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian Processes머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian Processes
 
Morphological computation 概要(形態を活用するロボット)
Morphological computation 概要(形態を活用するロボット)Morphological computation 概要(形態を活用するロボット)
Morphological computation 概要(形態を活用するロボット)
 
二関節筋・シナジーとロボティクス
二関節筋・シナジーとロボティクス二関節筋・シナジーとロボティクス
二関節筋・シナジーとロボティクス
 
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 

ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )