SlideShare a Scribd company logo
「ガウス過程と機械
学習」 輪読会#1
2019/07/21
@yoichi_t
• 時⽥ 陽⼀(@yoichi_t)
• 所属:株式会社Glia Computing
(https://www.glia-computing.com/)
• 2018年8⽉に設⽴(Co-Founder)
• 機械学習/データ分析のPoC、導⼊⽀援、コンサル
• 過去所属
• AI系ベンチャーにて、機械学習/データ分析のPoCなどを担当
• Web系広告会社にて、広告配信の最適化、ユーザ分析などを担当
• ⼤⼿警備会社研究所にて、⼈物⾏動の研究
• NAIST, 修⼠(⼯学)、著者の⽅々と同じ⼤学、⼤⽻さんとは同じ研究室
⾃⼰紹介
2
• 時⽥ 陽⼀(@yoichi_t)
• チョコボールの秘密を解明するために、⽇々データを収集&解析
⾃⼰紹介
チョコボール 統計
3
ガウス過程基礎応⽤
• 第0章 たった5分でガウス過程法がわかってしまう
• ガウス過程のイメージを解説
• 第1章 線形回帰モデル
• 単回帰、重回帰、線形回帰の解説(ガウス過程も線形回帰の拡張)
• 第2章 ガウス分布
• ガウス過程で⽤いる重要なパーツである多変量ガウス分布について解説
• 第3章 ガウス過程
• 2章までの知識を拡張してガウス過程を解説(ガウス過程の基本はここまで)
• 第4章 確率的⽣成モデルとガウス過程
• 統計モデリング全般で重要な確率的⽣成モデルとガウス過程との関連を解説
• 第5章 ガウス過程の計算法
• ガウス過程を実際に計算する際の計算法とその根拠を解説
• 第6章 ガウス過程の適⽤
• 空間統計学とベイズ最適化におけるガウス過程の役割を解説
• 第7章 ガウス過程による教師なし学習(上級者向け)
• 教師なし学習へのガウス過程の応⽤
本書の構成
4
• 第1章:線形回帰モデル
• 1.1 単回帰
• 1.2 重回帰とベクトル表現
• 1.3 線形回帰モデル
• 1.4 リッジ回帰
• 第2章:ガウス分布
• 2.1 ガウス分布とは
• 2.2 重みの事前分布とリッジ回帰
• 2.3 多変量ガウス分布
今⽇の範囲
5
2章までは基礎知識のおさらい
• 機械学習の最も基本のモデル
• 「ガウス過程」も線形回帰モデル
の拡張としてとらえられる
• 統計/機械学習における最も重要
な確率分布
• 線形回帰モデルをガウス分布を利
⽤した確率モデルとして理解
• 「ガウス過程」とはどういうものか?全体像を概説する章
• 5分じゃ難しくない??
Ch.0 たった5分でガウス過程法がわかってしまう
6
ガウス過程
→ 関数f(x)を確率変数
と⾒⽴てた確率分布
• 第1章:線形回帰モデル
• 1.1 単回帰
• 1.2 重回帰とベクトル表現
• 1.3 線形回帰モデル
• 1.4 リッジ回帰
• ガウス過程 → (基本的には)回帰のための道具
• 線形回帰モデルはそれだけでも⼗分有効な道具
• 線形回帰モデルの無限次元への拡張として捉えられる(らしい)
• 本章では、線形回帰モデルの最⼩⼆乗解の導出を解説
Ch.1 線形回帰モデル
7
• 問題設定
• データ:
• ここで、xはD次元のベクトルとする
• データDが与えられたとしてyの回帰モデルを考える
1.2 重回帰とベクトル表現
8
単回帰はD=1の特殊例
• 問題設定
• データ:
• ここで、xはD次元のベクトルとする
• データDが与えられたとしてyの回帰モデルを考える
• 最⼩⼆乗解を求める→まずはベクトル表記する
1.2 重回帰とベクトル表現
9
単回帰はD=1の特殊例
• 問題設定
• データ:
• ここで、xはD次元のベクトルとする
• データDが与えられたとしてyの回帰モデルを考える
• 最⼩⼆乗解を求める→まずはベクトル表記する
• 重みと⼊⼒をベクトルで表現する
• 出⼒y(推定値)もベクトルで表現する
• yはN個与えられている(縦に並べる)
1.2 重回帰とベクトル表現
10
(1.27)
(1.24)
(1.21), (1.22)
単回帰はD=1の特殊例
• 最⼩⼆乗解を求める
• ⼆乗誤差を定義
• ⼆乗誤差を最⼩化したいパラメータで偏微分
• 偏微分が0となるパラメータが最⼩⼆乗解
1.2 重回帰とベクトル表現
11
• ⼆乗誤差
1.2 重回帰とベクトル表現
12
⼆乗和はベクトルの内積
(1.33)
(1.29)
• ⼆乗誤差
• ⼆乗誤差を重みwで微分して0とおくことで最⼩⼆乗解が求まる
1.2 重回帰とベクトル表現
13
⼆乗和はベクトルの内積
(1.33)
(1.29)
(1.35)より
(1.40)より
• ⼆乗誤差
• ⼆乗誤差を重みwで微分して0とおくことで最⼩⼆乗解が求まる
1.2 重回帰とベクトル表現
14
⼆乗和はベクトルの内積
(1.33)
(1.29)
(1.35)より
(1.40)より
(1.47)
(1.49)
(1.48, 正規⽅程式)
• 𝒙の1次式では表現できない関数𝑓(𝒙)がある(p.28, 図1.8)
1.3 線形回帰モデル
15
直線で回帰するのは無理がありそう
• 𝒙の1次式では表現できない関数𝑓(𝒙)がある(p.28, 図1.8)
Øxをそのまま使うのではなく、xの⾮線形関数𝜙&(𝒙)と重みwとの回帰モデル
を考える
• 例えば、 𝜙& 𝑥 = 𝑥)
など(xを1次元とした場合)
1.3 線形回帰モデル
16
2次関数だけでも厳しそう
複数の関数で表現しよう
• 𝒙の1次式では表現できない関数𝑓(𝒙)がある(p.28, 図1.8)
Øxをそのまま使うのではなく、xの⾮線形関数𝜙&(𝒙)と重みwとの回帰モデル
を考える
• 例えば、 𝜙& 𝑥 = 𝑥)
など(xを1次元とした場合)
• yの回帰モデル
• データN個分を重ねてベクトル表記
1.3 線形回帰モデル
17
(1.62)
重回帰モデルは𝜙 𝒙 = 𝒙となる特殊ケース
• 𝒙の1次式では表現できない関数𝑓(𝒙)がある(p.28, 図1.8)
Øxをそのまま使うのではなく、xの⾮線形関数𝜙&(𝒙)と重みwとの回帰モデル
を考える
• 例えば、 𝜙& 𝑥 = 𝑥)
など(xを1次元とした場合)
• yの回帰モデル
• データN個分を重ねてベクトル表記
1.3 線形回帰モデル
18
(1.62)
重回帰モデルは𝜙 𝒙 = 𝒙となる特殊ケース
xの特徴ベクトル
𝜙& 𝑥 :基底関数
• 𝒙の1次式では表現できない関数𝑓(𝒙)がある(p.28, 図1.8)
Øxをそのまま使うのではなく、xの⾮線形関数𝜙&(𝒙)と重みwとの回帰モデル
を考える
• 例えば、 𝜙& 𝑥 = 𝑥)
など(xを1次元とした場合)
• yの回帰モデル
• データN個分を重ねてベクトル表記
• データxに対しては⾮線形だがパラメータwに関して線形→線形回帰
1.3 線形回帰モデル
19
(1.62)
重回帰モデルは𝜙 𝒙 = 𝒙となる特殊ケース
xの特徴ベクトル
𝜙& 𝑥 :基底関数
• 重回帰モデルと⼊⼒変数を表す⾏列が変わっただけなので、最⼩⼆
乗解は同様に求められる
• 重回帰(1.27):
• 線形回帰(1.62):
• 線形回帰モデルの最⼩⼆乗解
1.3 線形回帰モデル
20
複雑な関数を回帰することができる
(図1.10)
(1.67)
• wの⼀般解((1.67)式)は Φ+
Φ ,-
が計算できないような場合に計算で
きない
• 解が⼀意に定まらない
• 変数の次元数がデータ点数よりも多い場合など
• 逆⾏列が極端に⼤きな値をとる場合がある
• 対策
• データ数を増やす
• wが極端に⼤きな値を取らないように制約を課す(正則化)
1.4 リッジ回帰
21
• wの⼀般解((1.67)式)は Φ+
Φ ,-
が計算できないような場合に計算で
きない
• 解が⼀意に定まらない
• 変数の次元数がデータ点数よりも多い場合など
• 逆⾏列が極端に⼤きな値をとる場合がある
• 対策
• データ数を増やす
• wが極端に⼤きな値を取らないように制約を課す(正則化)
• リッジ回帰:正則化の⽅法の⼀つ(L2正則化)、 weight decayとも
1.4 リッジ回帰
22
(1.74)
ペナルティ項
• wの⼀般解((1.67)式)は Φ+
Φ ,-
が計算できないような場合に計算で
きない
• 解が⼀意に定まらない
• 変数の次元数がデータ点数よりも多い場合など
• 逆⾏列が極端に⼤きな値をとる場合がある
• 対策
• データ数を増やす
• wが極端に⼤きな値を取らないように制約を課す(正則化)
• リッジ回帰:正則化の⽅法の⼀つ(L2正則化)、 weight decayとも
1.4 リッジ回帰
23
係数の絶対値の和→Lasso回帰(L1正則化)
(スパース解が得られやすい)
(1.74)
ペナルティ項
• リッジ回帰の解
1.4 リッジ回帰
24
ここは重回帰と⼀緒 ベクトルの⼆次形式の微分の式(1.40)を利⽤
• リッジ回帰の解
1.4 リッジ回帰
25
ここは重回帰と⼀緒 ベクトルの⼆次形式の微分の式(1.40)を利⽤
(1.75)
(1.76)
(1.77)
X+
Xの対⾓成分にαを加えて逆⾏列の計算を安定化させる
• 第2章:ガウス分布
• 2.1 ガウス分布とは
• 2.2 重みの事前分布とリッジ回帰
• 2.3 多変量ガウス分布
• Ch.0によると、ガウス過程とは線形回帰の拡張であり、関数を確率
変数とした確率分布(無限次元ガウス分布)
• Ch.1では、最⼩⼆乗法で線形回帰モデルを解いた
• 本章では、回帰モデルを⼀般化して確率モデルとして定式化
• 誤差の分布を考える
• 誤差の分布として最もよく使われるガウス分布(正規分布)の性質を
解説
Ch2. ガウス分布
15
• 回帰モデルを⼀般化して確率モデルとして定式化したい
2.1 ガウス分布とは
27
p.42, 図2.3
線形回帰の例
• 回帰モデルを⼀般化して確率モデルとして定式化したい
2.1 ガウス分布とは
28
p.42, 図2.3
線形回帰の例
ノイズ
(2.8)
• ノイズは正規分布に従うと仮定する
• 正規分布だけには限らない(3.6.1節)
• 回帰モデルを⼀般化して確率モデルとして定式化したい
2.1 ガウス分布とは
29
p.42, 図2.3
線形回帰の例
ノイズ
(2.8)
(2.9)
ということで、確率モデルで表現できる
• ノイズは正規分布に従うと仮定する
• 正規分布だけには限らない(3.6.1節)
平均μを中⼼に指数的に減少する正規化項
ガウス分布 (2.2)
• 確率モデルで表現した回帰モデルのパラメータwを求めたい
• データ:
2.1 ガウス分布とは
30
• 確率モデルで表現した回帰モデルのパラメータwを求めたい
• データ:
• wを推定する
• データは互いに独⽴と仮定(i.i.d)し、yの⽣成確率を考える(尤度)
2.1 ガウス分布とは
31
(2.11)
• 確率モデルで表現した回帰モデルのパラメータwを求めたい
• データ:
• wを推定する
• データは互いに独⽴と仮定(i.i.d)し、yの⽣成確率を考える(尤度)
• 計算を楽にするために対数尤度を考える
2.1 ガウス分布とは
32
(2.11)
(2.12)
• 確率モデルで表現した回帰モデルのパラメータwを求めたい
• データ:
• wを推定する
• データは互いに独⽴と仮定(i.i.d)し、yの⽣成確率を考える(尤度)
• 計算を楽にするために対数尤度を考える
• 対数尤度の最⼤化
2.1 ガウス分布とは
33
(2.11)
(2.12)
(2.13)
最⼩⼆乗法での誤差の最⼩化と同じ式(1.29)が得られた(符号は違うけど)
最⼩⼆乗法は誤差の分布をガウス分布と暗に仮定していたとみなせる
• パラメータwも確率変数として考えよう
• wが極端な値になるのを防ぐために、wを確率変数として事前分布を設定
• 不確実性を表現できる(Ch.0)
2.2 重みの事前分布とリッジ回帰
34
• パラメータwも確率変数として考えよう
• wが極端な値になるのを防ぐために、wを確率変数として事前分布を設定
• 不確実性を表現できる(Ch.0)
• 回帰モデルのグラフィカルモデル
2.2 重みの事前分布とリッジ回帰
35
X y
w
• パラメータwも確率変数として考えよう
• wが極端な値になるのを防ぐために、wを確率変数として事前分布を設定
• 不確実性を表現できる(Ch.0)
• 回帰モデルのグラフィカルモデル
• D+1次元のwの確率分布(wはそれぞれ独⽴に正規分布に従う)
• N個の観測データyの確率分布 → (2.11)
2.2 重みの事前分布とリッジ回帰
36
(2.14)
X y
w
それぞれの対数は
(2.16), (2.13)式参照
• 続き
2.2 重みの事前分布とリッジ回帰
37
• 続き
• 対数をとってwについて整理する
• 定数を整理する
2.2 重みの事前分布とリッジ回帰
38
(2.17)
リッジ回帰の式(1.74)と⼀致。
パラメータwを確率変数とし、事前分布を正規分布とすると⾃然にリッジ
回帰が現れる。
• 前項までで回帰モデルの確率モデル化は終わり
• 以降は、ガウス過程だけでなく機械学習全般で重要なガウス分布の
性質を⾒ていく
2.3 多変量ガウス分布
39
• 1変量ガウス分布
2.3 多変量ガウス分布
40
正規化項
平均μを中⼼に指数的に減少する
(2.2)
N(0, 1)のガウス分布から10,000点のサンプル
μ
• 1変量ガウス分布
• 多変量ガウス分布
2.3 多変量ガウス分布
41
正規化項
平均μを中⼼に指数的に減少する
(2.2)
N(0, 1)のガウス分布から10,000点のサンプル
μ
(2.18)
𝜇:平均ベクトル
Σ:D×Dの共分散⾏列
(2.19)
(2.23)
𝜇 = 0 0 +
Σ =
1 0.8
0.8 2.0
• 共分散⾏列が多変量ガウス分布の形状を決める
2.3 多変量ガウス分布
42
共分散⾏列が対⾓ではない
→ xの成分間で相関を持つ
共分散⾏列が対⾓
→ xの成分は互いに独⽴
p.47, 図2.5
• ガウス分布に従うベクトルxを
• 正則⾏列Aで線形変換したベクトルy
• ガウス分布に従う
• あとで部品として使います
2.3.1 多変量ガウス分布と線形変換
43
• 1変量ガウス分布からのサンプリング(2.1.1)
• ライブラリの利⽤(sipy.stats.normなど)
• (0,1]の⼀様乱数から⽣成(Box-Muller法,
https://projecteuclid.org/download/pdf_1/euclid.aoms/1177706645)
2.3.2 多変量ガウス分布からのサンプリング
44
• 多変量ガウス分布からのサンプリング
• ライブラリの利⽤(sipy.stats.multivariate_normalなど)
• 独⽴に⽣成した複数の1変量標準ガウス分布(N(0,1))から⽣成
• ⼿順
• ⽣成したいガウス分布の共分散⾏列Σをコレスキー分解(np.linalg.cholesky)
• 独⽴に⽣成した複数の1変量標準ガウス分布(N(0,1))を並べてベクトルに
• 分解した下三⾓⾏列Lでxを線形変換したyは共分散⾏列Σの多変量正規分布
2.3.2 多変量ガウス分布からのサンプリング
45
(2.31)
(2.34)
• 多変量ガウス分布の⼀部の次元を周辺化(積分消去)しても、残りの
次元は多変量ガウス分布に従う
2.3.3 多変量ガウス分布の周辺化
46
周辺分布
周辺分布
周辺化
周辺化
(2.38)
p.51,52の⼿順に従って計算すると証明できる
• 符号の誤植、転置の抜けなどが結構ある
• PRMLの⽅がわかりやすかった
• 多変量ガウス分布の⼀部の次元を特定の値に固定した(条件付け)分
布は多変量ガウス分布になる
2.3.4 多変量ガウス分布の条件付き分布
47
𝑝(𝑥)|𝑥- = 𝑐)はガウス分布
(2.54)
p.53,55の⼿順に従って計算すると証明できる
• 2.3.2節と⼀部共有
• 符号の誤植、転置の抜けなどが結構ある
• PRMLの⽅がわかりやすかった
• 条件付き分布の解釈
2.3.4 多変量ガウス分布の条件付き分布
48
観測値x-が与えられた時の
x)の事後分布(更新された分布)
[分散の解釈]
• x)が従う分布の分散Σ))の観測値x-が与えられた元での更新を表す
• 新しい情報が⼊る分、分散は減少していく
[平均の解釈]
• x)が従う分布の平均𝝁)の観測値x-が与えられた元での更新を表す
• 更新量はx-が従う分布の平均𝝁- からの観測値x-のズレに基づく
• ズレの⼤きさを分散⾏列Σ--で正規化(分散が⼤きいと情報は少な
いため更新量は⼩さい)
• ガウス過程とは?
• 関数f(x)を確率変数と⾒⽴てた確率分布(無限次元のガウス分布)
• 線形回帰モデル(含む、単回帰、重回帰)
• 特徴ベクトルと重みの線形和で表現されたモデル
(パラメータ空間に関して線形)
• 最⼩⼆乗法を使ってデータから重みを学習
• 線形回帰モデルを確率分布として定式化
• 誤差の分布を正規分布とおいた最尤解は最⼩⼆乗解と等価である
• リッジ回帰は線形モデルのパラメータwを確率変数(正規分布)と考えた場合
に⾃然に導かれた
• 多変量ガウス分布の性質を眺めた
• 周辺分布、条件付き分布
Ch0~2のまとめ
49

More Related Content

What's hot

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
 
質的変数の相関・因子分析
質的変数の相関・因子分析質的変数の相関・因子分析
質的変数の相関・因子分析
Mitsuo Shimohata
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
 
混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2
混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2
混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2
RHamano
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Yuya Takashina
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
Hiroshi Shimizu
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
joisino
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
Yuichiro MInato
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
joisino
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化
MatsuiRyo
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
Hirotaka Hachiya
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
logics-of-blue
 
時系列分析による異常検知入門
時系列分析による異常検知入門時系列分析による異常検知入門
時系列分析による異常検知入門Yohei Sato
 

What's hot (20)

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
質的変数の相関・因子分析
質的変数の相関・因子分析質的変数の相関・因子分析
質的変数の相関・因子分析
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2
混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2
混合整数ブラックボックス最適化に向けたCMA-ESの改良 / Optuna Meetup #2
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
時系列分析による異常検知入門
時系列分析による異常検知入門時系列分析による異常検知入門
時系列分析による異常検知入門
 

Similar to 20190721 gaussian process

20191117_choco_bayes_pub
20191117_choco_bayes_pub20191117_choco_bayes_pub
20191117_choco_bayes_pub
Yoichi Tokita
 
予算実績差異分析
予算実績差異分析予算実績差異分析
予算実績差異分析
FumiakiTomikuda
 
20190609 bayes ml ch3
20190609 bayes ml ch320190609 bayes ml ch3
20190609 bayes ml ch3
Yoichi Tokita
 
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
SusumuOTA
 
20190723 mlp lt_bayes_pub
20190723 mlp lt_bayes_pub20190723 mlp lt_bayes_pub
20190723 mlp lt_bayes_pub
Yoichi Tokita
 
Interpretable sequence learning for covid-19 forecasting
Interpretable sequence learning for covid-19 forecastingInterpretable sequence learning for covid-19 forecasting
Interpretable sequence learning for covid-19 forecasting
Morpho, Inc.
 
AgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけて
AgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけてAgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけて
AgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけて
Shuji Morisaki
 
強化学習メモスライド
強化学習メモスライド強化学習メモスライド
強化学習メモスライド
twiponta_suzuki
 
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオンTech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Takahiro Kubo
 
market-api.dev_financial_data_augmentation.pptx
market-api.dev_financial_data_augmentation.pptxmarket-api.dev_financial_data_augmentation.pptx
market-api.dev_financial_data_augmentation.pptx
jmiyashitafl
 
Web解析と意思決定20130311 太田
Web解析と意思決定20130311 太田Web解析と意思決定20130311 太田
Web解析と意思決定20130311 太田博三 太田
 
20190512 bayes hands-on
20190512 bayes hands-on20190512 bayes hands-on
20190512 bayes hands-on
Yoichi Tokita
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
Evolved policy gradients
Evolved policy gradientsEvolved policy gradients
Evolved policy gradients
Kenshi Abe
 
CIが分からない PE(SETエンジニア)の1年生がWebAPIの負荷テストを 背伸びしてCI運用した
CIが分からないPE(SETエンジニア)の1年生がWebAPIの負荷テストを背伸びしてCI運用したCIが分からないPE(SETエンジニア)の1年生がWebAPIの負荷テストを背伸びしてCI運用した
CIが分からない PE(SETエンジニア)の1年生がWebAPIの負荷テストを 背伸びしてCI運用した
ssuser0be501
 
一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリング一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリング
Recruit Lifestyle Co., Ltd.
 
応用情報・午後・ストラテジ系を解く(H26春)
応用情報・午後・ストラテジ系を解く(H26春)応用情報・午後・ストラテジ系を解く(H26春)
応用情報・午後・ストラテジ系を解く(H26春)
higher_tomorrow
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
Shinsaku Kono
 
強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
Naoki Nishimura
 

Similar to 20190721 gaussian process (20)

おしゃスタat銀座
おしゃスタat銀座おしゃスタat銀座
おしゃスタat銀座
 
20191117_choco_bayes_pub
20191117_choco_bayes_pub20191117_choco_bayes_pub
20191117_choco_bayes_pub
 
予算実績差異分析
予算実績差異分析予算実績差異分析
予算実績差異分析
 
20190609 bayes ml ch3
20190609 bayes ml ch320190609 bayes ml ch3
20190609 bayes ml ch3
 
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
 
20190723 mlp lt_bayes_pub
20190723 mlp lt_bayes_pub20190723 mlp lt_bayes_pub
20190723 mlp lt_bayes_pub
 
Interpretable sequence learning for covid-19 forecasting
Interpretable sequence learning for covid-19 forecastingInterpretable sequence learning for covid-19 forecasting
Interpretable sequence learning for covid-19 forecasting
 
AgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけて
AgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけてAgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけて
AgileTourOsaka2011 関係者に理解してもらえるアジャイル開発にむけて
 
強化学習メモスライド
強化学習メモスライド強化学習メモスライド
強化学習メモスライド
 
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオンTech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
 
market-api.dev_financial_data_augmentation.pptx
market-api.dev_financial_data_augmentation.pptxmarket-api.dev_financial_data_augmentation.pptx
market-api.dev_financial_data_augmentation.pptx
 
Web解析と意思決定20130311 太田
Web解析と意思決定20130311 太田Web解析と意思決定20130311 太田
Web解析と意思決定20130311 太田
 
20190512 bayes hands-on
20190512 bayes hands-on20190512 bayes hands-on
20190512 bayes hands-on
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
Evolved policy gradients
Evolved policy gradientsEvolved policy gradients
Evolved policy gradients
 
CIが分からない PE(SETエンジニア)の1年生がWebAPIの負荷テストを 背伸びしてCI運用した
CIが分からないPE(SETエンジニア)の1年生がWebAPIの負荷テストを背伸びしてCI運用したCIが分からないPE(SETエンジニア)の1年生がWebAPIの負荷テストを背伸びしてCI運用した
CIが分からない PE(SETエンジニア)の1年生がWebAPIの負荷テストを 背伸びしてCI運用した
 
一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリング一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリング
 
応用情報・午後・ストラテジ系を解く(H26春)
応用情報・午後・ストラテジ系を解く(H26春)応用情報・午後・ストラテジ系を解く(H26春)
応用情報・午後・ストラテジ系を解く(H26春)
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
 
強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
 

More from Yoichi Tokita

20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない
20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない
20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない
Yoichi Tokita
 
20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub
Yoichi Tokita
 
20190606_ml_and_buisiness
20190606_ml_and_buisiness20190606_ml_and_buisiness
20190606_ml_and_buisiness
Yoichi Tokita
 
20190526 bayes ml
20190526 bayes ml20190526 bayes ml
20190526 bayes ml
Yoichi Tokita
 
20190330 chainer meetup chocoball
20190330 chainer meetup chocoball20190330 chainer meetup chocoball
20190330 chainer meetup chocoball
Yoichi Tokita
 
20190316 bayes modeling
20190316 bayes modeling 20190316 bayes modeling
20190316 bayes modeling
Yoichi Tokita
 
20190317 prml ch2 probability Distribution
20190317 prml ch2 probability Distribution20190317 prml ch2 probability Distribution
20190317 prml ch2 probability Distribution
Yoichi Tokita
 
20190209 bayes modeling_s_pub
20190209 bayes modeling_s_pub20190209 bayes modeling_s_pub
20190209 bayes modeling_s_pub
Yoichi Tokita
 
チョコボールのエンゼル出現確率をベイズ推定する
チョコボールのエンゼル出現確率をベイズ推定するチョコボールのエンゼル出現確率をベイズ推定する
チョコボールのエンゼル出現確率をベイズ推定する
Yoichi Tokita
 

More from Yoichi Tokita (9)

20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない
20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない
20200808_PyMCを使えばちょっと複雑な確率モデルも怖くない
 
20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub
 
20190606_ml_and_buisiness
20190606_ml_and_buisiness20190606_ml_and_buisiness
20190606_ml_and_buisiness
 
20190526 bayes ml
20190526 bayes ml20190526 bayes ml
20190526 bayes ml
 
20190330 chainer meetup chocoball
20190330 chainer meetup chocoball20190330 chainer meetup chocoball
20190330 chainer meetup chocoball
 
20190316 bayes modeling
20190316 bayes modeling 20190316 bayes modeling
20190316 bayes modeling
 
20190317 prml ch2 probability Distribution
20190317 prml ch2 probability Distribution20190317 prml ch2 probability Distribution
20190317 prml ch2 probability Distribution
 
20190209 bayes modeling_s_pub
20190209 bayes modeling_s_pub20190209 bayes modeling_s_pub
20190209 bayes modeling_s_pub
 
チョコボールのエンゼル出現確率をベイズ推定する
チョコボールのエンゼル出現確率をベイズ推定するチョコボールのエンゼル出現確率をベイズ推定する
チョコボールのエンゼル出現確率をベイズ推定する
 

20190721 gaussian process