SlideShare a Scribd company logo
金融時系列のための深層t過程回帰モデル
第21回 人工知能学会 金融情報学研究会
2018/10/20
2
背景/目的
✔ 隠れ層が多層の場合のニューラルネットワーク(深層学習)に対応するカーネル関数の導出
(Cho and Saul [2009])
✔ 深層学習カーネルを用いた深層ガウス過程回帰モデルの提案(Lee et, al.[2018])
・点推定である(信頼区間などの確率情報がない)
・ハイパーパラメータが多く、過学習しやすい
・収束の確認が難しく、モデル比較ができない
深層学習は様々な分野/タスクで非常に高い性能を挙げているが、下記をはじめ問題点も多くある。
深層学習のベイズ推論化、ガウス過程で表現するアプローチが注目されている。
✔ 隠れ層が単層の場合のニューラルネットワークに対応するカーネル関数の導出(Neal [1994])
・学習に大量のデータが必要
3
モデルができないこと、苦手なことを理解できる。
以上を踏まえて、一般に裾の厚い金融時系列データへの適用のため、
深層ガウス過程回帰から、深層t過程回帰への拡張と有効性の評価を行う。
予測に自信がない(=予測誤差が大きい)と
実際に予測も間違えやすい
深層ガウス過程回帰モデルの画像データ予測に対する予測誤差(横軸)と予測精度(縦軸)
しかも精度は深層学習と同程度。
背景/目的
Lee et, al.[2018]より抜粋
アウトライン
背景/目的
カーネル法と深層学習カーネル
ガウス過程とガウス過程回帰モデル
t過程とt過程回帰モデル
実証分析
まとめ
✔
カーネル法
5
(𝑧1, 𝑧2, 𝑧3) = (𝑥1
2
, 𝑥2
2
, 2𝑥1 𝑥2)
特徴空間で(内積を用いて)解析を行う!
𝜙(𝑥)
特徴写像
データ空間 𝐷 特徴空間 𝐻
より表現力を高めるため、
高次元(無限次元)で考えたい。
カーネル・トリック
高次元への写像𝜙をどのように決めるか?
非線形性のあるデータを高次元空間へ写し、単純な構造を抽出。
カーネル法
6
特徴写像によって、内積を持つ特徴空間(ヒルベルト空間)にデータを写像し解析する
のではなく、特徴ベクトルの内積 𝜙 𝑥𝑖 , 𝜙 𝑥𝑗 を用いる。
𝑥1, … , 𝑥 𝑁 → 𝜙 𝑥1 , … , 𝜙(𝑥 𝑁)
すると、この内積がある条件(正定値性)を満たすカーネル関数𝐾を用いて
高次元、無限次元
データ数分の次元
変換𝜙が明示的に分からなくてもOK!
しかし、カーネルだけ計算できるような特徴空間中の量が多数ある。
(回帰、PCAなどほとんどのアルゴリズムが適用可能)
𝜙 𝑥𝑖 , 𝜙 𝑥𝑗 = 𝐾(𝑥𝑖, 𝑥𝑗)
と計算できる。(Mercerの定理)
カーネル法では、カーネル関数𝐾を設計することで解析を行う。
深層学習カーネル
7
𝐾 𝑙
𝑥, 𝑥′
= 𝜎 𝑏
2
+ 𝜎 𝑤
2
𝐹 𝜙(𝐾 𝑙−1
𝑥, 𝑥 , 𝐾 𝑙−1
𝑥, 𝑥′
, 𝐾 𝑙−1
𝑥′
, 𝑥′
)
引数を𝑙 − 1層のカーネルとしたとき、活性化関数𝜙によって異なる関数𝐹 𝜙を用いて表現できる。
𝐾 𝑙 𝑥, 𝑥′ = 𝜎 𝑏
2
+
𝜎 𝑤
2
2
𝐾𝑙−1 𝑥, 𝑥 𝐾𝑙−1 𝑥′, 𝑥′ (sin 𝜃 𝑙−1 + 𝜋 − 𝜃 𝑙−1 cos 𝜃 𝑙−1)
𝜃 𝑙−1 =
𝐾 𝑙−1 𝑥, 𝑥′
𝐾 𝑙−1 𝑥, 𝑥 𝐾 𝑙−1 𝑥′, 𝑥′
𝐹 𝜙は活性化関数がReLUの場合には以下のように解析的に書け、
その他の場合には数値的に計算できる。
中間層に無限個ユニット数を持つ非線形関数(NN)に対応したカーネル関数が存在。
単層の場合; Neal [1994]
多層の場合; Cho and Saul [2009]
アウトライン
背景/目的
カーネル法と深層学習カーネル
ガウス過程とガウス過程回帰モデル
t過程とt過程回帰モデル
実証分析
まとめ
✔
✔
ガウス過程
9
・確率過程𝑓𝐺𝑃が、入力ベクトルから成る任意の有限集合 𝑋 = 𝑥1, … , 𝑥 𝑛
𝑇 に対して、
関数値のベクトル𝑓𝐺𝑃 = 𝑓𝐺𝑃 𝑥1 , … , 𝑓𝐺𝑃 𝑥 𝑛
𝑇 の分布がガウス分布であるとき、
ガウス過程という。
・𝑓𝐺𝑃の分布は、 ガウス分布であるので、その期待値を指定する平均関数
𝜇 = 𝜇 𝑥1 , … , 𝜇 𝑥 𝑛
𝑇
および、共分散 (カーネル) 関数 𝐾 = (𝑥 𝑛, 𝑥 𝑚) の値𝐾 𝑛𝑚 を
要素とする共分散行列𝐾を指定するによって完全に特定できる。これを、
𝑓𝐺𝑃 ~𝑁(𝜇 𝑥 , 𝐾(𝑥, 𝑥0)) と書く。
→ 𝑛 個のデータを 𝑛 次元正規分布として表現
→ 既知のデータ点が 𝑛 個あるとき、それらを 𝑛 次元正規分布 𝑁(𝜇 𝑥 , 𝐾(𝑥, 𝑥0)) からの
サンプルであると考える。
ガウス過程
10
カーネル
関数
𝑥1 𝑥2
𝑥1
𝑥2
𝑥1𝑥2
ガウス過程のイメージ(サンプル)
…
…
…
𝐾
【1】カーネル関数によって類似度を計算
【2】カーネル関数を共分散行列とする
ガウス分布から𝑓のサンプルを得る
「近い」データは似たような値をとる。
𝜇
2
×
標
準
偏
差
データ点が多いほど、予測誤差は小さく、
データ点が少ないほど、予測誤差は大きい。
途中でサンプルの傾向が変わった場合に対応可能
外挿に強い
11
ガウス過程回帰モデル
𝑦𝑖 = 𝑓𝐺𝑃 𝒙𝑖 + 𝜀𝑖 𝑓𝐺𝑃~𝑁(𝝁(𝑿), 𝑲(𝑥, 𝑥0))
𝑓𝐺𝑃 + 𝜀𝑖~𝑁(𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰)
𝑦
𝑓𝐺𝑃
∗ ~𝑁
𝜇(𝑿)
𝜇(𝒁)
,
𝐾 𝑿, 𝑿 + 𝜎2
𝑰 𝐾 𝒁, 𝑿 𝑇
𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁
𝑝 𝑓𝐺𝑃
∗
𝑦 =
𝑝 𝑓𝐺𝑃
∗
, 𝑦
𝑝 𝑦
~𝑁( 𝜇, Σ)
𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝑦 − 𝜇 𝒁 + 𝜇(𝒁)
Σ = 𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿
𝜀𝑖~𝑁(0, 𝜎2)
ガウス過程を使った回帰モデルを考える。
ガウス分布の畳込みはまたガウス分布であるので、
ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚
𝑇が与えられたとき、その予測値𝑓𝐺𝑃
∗
= 𝑓𝐺𝑃
∗
(𝒛1), … , 𝑓𝐺𝑃
∗
(𝒛 𝑚) 𝑇と
𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びガウス過程となり、
𝒚の下での予測値𝑓𝐺𝑃
∗
の分布は、条件付き分布を計算することで、
分布があるので最尤法で推定可能
,
t過程
12
メリット:
外れ値を考慮できる。
ガウス過程とほぼ同じ性質がある
デメリット:
自由度のパラメータが増える。
t過程 ガウス過程
𝐾(𝑠, 𝑡) = min(s, t) ;Wiener processの平均0のガウス過程とt過程(自由度5)を100サンプル生成
𝑇 𝜈, 𝝁, 𝑲 =
Γ
𝜈 + 𝑛
2
𝜈 − 2 𝜋
𝑛
2Γ
𝜈
2
det 𝑲 −
1
2 × 1 +
𝒚 − 𝝁 𝑇
𝑲−1
𝒚 − 𝝁
𝜈 − 2
−
𝜈+𝑛
2
t 過程とガウス過程の違い
指数関数の定義から
𝜈 → ∞でガウス分布へ収束。
・・・𝑛 個のデータを 𝑛 次元t分布として表現
13
t過程回帰モデル
𝑦𝑖 = 𝑓𝑇𝑃 𝒙𝑖 + 𝜀𝑖 𝑓𝑇𝑃~𝑇(𝜈, 𝝁(𝑿), 𝑲(𝑥, 𝑥0))
𝑓𝑇𝑃 + 𝜀𝑖 ≈ 𝑇(𝜈, 𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰)
𝑦
𝑓𝑇𝑃
∗ ~𝑇 𝜈,
𝜇(𝑿)
𝜇(𝒁)
,
𝐾 𝑿, 𝑿 + 𝜎2
𝑰 𝐾 𝒁, 𝑿 𝑇
𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁
𝑝 𝑓𝑇𝑃
∗
𝑦 =
𝑝 𝑓𝑇𝑃
∗
, 𝑦
𝑝 𝑦
~𝑇( 𝜈, 𝜇, Σ)
𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝒚 − 𝜇 𝒁 + 𝜇(𝒁)
Σ =
𝜈 − 𝛽 − 2
𝜈 − 𝑛 − 2
𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿
𝜀𝑖~𝑇(𝜈, 0, 𝜎2)
t過程を使った回帰モデルを考える。
t分布の畳込みはまたt分布にならないが、近似的に、
ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚
𝑇が与えられたとき、その予測値𝑓𝑇𝑃
∗
= 𝑓𝑇𝑃
∗
(𝒛1), … , 𝑓𝑇𝑃
∗
(𝒛 𝑚) 𝑇と
𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びt過程となり、
𝒚の下での予測値𝑓𝑇𝑃
∗
の分布は、条件付き分布を計算することで、(論文参照)
𝜈 = 𝜈 + 𝑚 𝛽 = 𝒚 − 𝜇 𝑿
𝑇
𝐾 𝑿, 𝑿 −𝟏 𝒚 − 𝜇 𝑿
分布があるので最尤法で推定可能
,
実証分析
各国の株式指数(TPX,S&P,DAX)の月次データを用いて、深層ガウス過程回帰モデルをベンチマークに、
深層t過程回帰モデルの有効性を確認する。
14
TPX SPX DAX
年率リターン[%] 2.37 7.38 8.15
年率リスク[%] 18.02 14.24 18.32
歪度 -0.47 -0.82 -0.56
尖度 5.22 6.2 5.69
Jarque-Beta統計量 12.94 41.75 23.67
p-値[%] 0.155 0 0.0007
・データは2018/6末から直近12年分 (144 サンプル) を使用し、うち推定に7割、テストに3割使用する。
全期間における各指数の統計量
各指数ともに正規性を満たさないため、t過程をあてはめる余地がある。
・各指数の配当利回り、PBR、PER、ROE、12-1 か月モメンタムを説明変数とし、
翌月のリターンを非説明変数とする。
1. 深層学習カーネルのハイパーパラメータ 𝜎𝑏
2
, 𝜎 𝑤
2の初期値を 0.1 とする
2. 観測ノイズのパラメータ 𝜎2 を 0.005 で与える
3. ガウス過程、t 過程をそれぞれ最尤推定する
4. テストデータを予測する
15
実証分析
・評価指標としてテスト期間におけるRMSEとMAEを用いる。
両モデルの具体的な推定手順は下記の通りである。
実証分析
16
指数
Total GP TP GP TP GP TP
RMSE 0.3511 0.2158 1.0357 0.5076 0.2934 0.1134
MAE 0.2914 0.1622 0.891 0.4282 0.2489 0.0808
予測誤差(大) GP TP GP TP GP TP
RMSE 0.3561 0.2623 1.3646 0.6856 0.3285 0.139
MAE 0.2937 0.2079 1.3431 0.6674 0.2759 0.1014
予測誤差(小) GP TP GP TP GP TP
RMSE 0.3458 0.1524 0.565 0.2343 0.2553 0.08
MAE 0.2892 0.1142 0.4594 0.1999 0.2231 0.0602
TPX SPX DAX
GPはデータの非正規性により、異常値に振らされた予測を行うため、
TPよりも精度が悪いのでは。
精度の分析(1層)
指数 TPX SPX DAX
Total
RMSE 38.5% 51.0% 61.3%
MAE 44.3% 51.9% 67.5%
予測誤差(大)
RMSE 26.3% 49.8% 57.7%
MAE 29.2% 50.3% 63.2%
予測誤差(小)
RMSE 55.9% 58.5% 68.7%
MAE 60.5% 56.5% 73.0%
改善率
改善率
改善率
17
実証分析
SPXの予測誤差(Std)とRMSEとの関係(赤丸:GP、青丸:TP)
・先行研究同様に、金融データにおいても
予測誤差が大きいほど、
予測精度が悪くなっていることがわかる。
・他の指数でも同様の傾向。
18
実証分析
Total 1層 2層 3層 4層
RMSE 0.3511 0.4114 0.3790 0.3893
MAE 0.2914 0.3558 0.3267 0.3354
予測誤差(大) 1層 2層 3層 4層
RMSE 0.3561 0.4218 0.3559 0.3867
MAE 0.2937 0.3621 0.3008 0.3311
予測誤差(小) 1層 2層 3層 4層
RMSE 0.3458 0.4013 0.3997 0.3918
MAE 0.2892 0.3497 0.3514 0.3396
GP
Total 1層 2層 3層 4層
RMSE 0.2158 0.2222 0.1325 0.1385
MAE 0.1622 0.1651 0.1004 0.1104
予測誤差(大) 1層 2層 3層 4層
RMSE 0.2623 0.1619 0.1162 0.1432
MAE 0.2079 0.1238 0.0940 0.1171
予測誤差(小) 1層 2層 3層 4層
RMSE 0.1524 0.2674 0.1464 0.1340
MAE 0.1142 0.2045 0.1066 0.1041
TP
GPは層が深くなっても精度が改善するとは限らない。 一方で、TPは層が深くなると精度が改善傾向。
精度の分析(多層、TPX)
本研究では、金融時系列への応用という観点から深層ガウス過程回帰モデルを、
t過程回帰モデルへの拡張と実証分析を行った。
19
まとめ
・ t 過程回帰モデルに必要となる多変量条件付き t 分布の完全な導出
・ 実証分析により深層 t 過程回帰モデルの有効性の確認
・ 深層 t 過程の予測の不確実性と予測精度の考察
今後の研究の方向性として、
20
まとめ
実証的には、
・層の数と予測精度との関係
・ファクターモデルへの適用
・予測誤差を利用した投資戦略
理論的には、
・Cauchy過程回帰モデル の検討。
・Levy過程回帰モデル への拡張。

More Related Content

What's hot

変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
 

What's hot (20)

統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデル
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 

Similar to 金融時系列のための深層t過程回帰モデル

NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
Eiji Uchibe
 

Similar to 金融時系列のための深層t過程回帰モデル (20)

Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
 
自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNE
 
【論文紹介】PGQ: Combining Policy Gradient And Q-learning
【論文紹介】PGQ: Combining Policy Gradient And Q-learning【論文紹介】PGQ: Combining Policy Gradient And Q-learning
【論文紹介】PGQ: Combining Policy Gradient And Q-learning
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
 
打ち切りデータのヒストグラム
打ち切りデータのヒストグラム打ち切りデータのヒストグラム
打ち切りデータのヒストグラム
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
 
Graph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generationGraph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generation
 
Data assim r
Data assim rData assim r
Data assim r
 
Introduction to R Graphics with ggplot2 #2
Introduction to R Graphics with ggplot2 #2Introduction to R Graphics with ggplot2 #2
Introduction to R Graphics with ggplot2 #2
 

More from Kei Nakagawa

What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
Kei Nakagawa
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
Kei Nakagawa
 

More from Kei Nakagawa (20)

連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
 
Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NET
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
 
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
 
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock Returns
 
アセットアロケーションの未来
アセットアロケーションの未来アセットアロケーションの未来
アセットアロケーションの未来
 
Cfa 20190620
Cfa 20190620Cfa 20190620
Cfa 20190620
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
 
モデル予見制御に基づくペアトレード戦略
モデル予見制御に基づくペアトレード戦略モデル予見制御に基づくペアトレード戦略
モデル予見制御に基づくペアトレード戦略
 
リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張
 

金融時系列のための深層t過程回帰モデル

Editor's Notes

  1. それでは、金融時系列のための深層t過程回帰モデルと題して野村アセットの中川が発表します。 本研究は株式会社MAZINの角屋さん、内山さんとの共同研究になります。
  2. さて、深層学習は色んな分野で高い精度を誇ってますが、一方で課題も多く指摘されています。 例えば、予測が点推定であるため、予測の信頼区間がわからないとか、ハイパーパラメータが多く過学習しやすい、学習に大量のデータが必要などが課題として挙げられています。 そこで、これらの課題に対処するため、深層学習をベイズ推論の枠組み、 具体的にはガウス過程を用いて表現するアプローチが提案されました。 このアプローチはまず深層学習をカーネル関数というもので表現します。 これは単層のNNはNeal(ニール)によって、多層の場合はCho(チョウ)によって導出されました。 そして、そのカーネル関数を用いたガウス過程、深層ガウス過程回帰がLeeによってまさに今年提案されました。
  3. さて、この深層ガウス回帰モデルの最大のメリットは、 こちらの図に表現されています。 この図は有名な画像データMNISTを予測した際の、縦軸がMSE(予測精度)、横軸が予測誤差です。 図から予測誤差が大きい、すなわち予測に自信がないと実際に予測も間違えやすいことがわかります。 モデルができないこと、苦手なことを理解できます。 しかも、精度自体も同じ層の深層学習と比べても同程度、ないし若干改善しています。 以上が研究の背景で、本研究ではこの深層ガウス回帰モデルを金融時系列データへ適用するにあたり、 ガウス過程からt過程への拡張を行いました。 よく知られているように金融時系列はガウスよりも裾が厚いため、 t過程へと拡張することで精度改善が見込めるかどうかを検討します。
  4. 研究の背景と目的を紹介したので、 次のスライド以降で具体的な手法の中身を検討していきます。 ちゃんと見ていくと結構数式が多くなり、しんどいので できるだけ直感的に説明していきたいと思います。 従って詳細は論文の方を参照してください。
  5. はじめにカーネル法のイメージを簡単にみていきます。 カーネル法は、非線形性をうまく扱うための手法です。 例えば、左の図のような線形分離できないデータがあったときに、 スライドのような変換をして、高次元、3次元に写像すると、線形分離可能になります。 このような何らかの特徴写像𝜙ファイによって、 高次元、ないし無限次元の特徴空間へ写して解析する、 これがカーネル法のアイデアです。
  6. ただ実際は、このファイφを直接用いるのではなく、その内積を使って解析します。 そうすると、この内積はある条件を満たす関数Kで表現できることが知られています。 その何が嬉しいかというと、高次元あるいは無限次元の空間の内積を考える必要はなく、 高々データ数分の関数Kを計算するだけでいいという点です。 カーネル法はφを直接決めてもいいのですが、普通この関数Kをうまく設計して解析します。
  7. このカーネル関数Kについて 中間層に無限個のユニットを持つニューラルネットに対応したカーネル関数Kが存在することが証明されました。 これは深層学習と同様に階層構造を持ちます。 具体的な式は、引数を𝑙−1層のカーネルとしたとき、活性化関数𝜙によって異なる関数 𝐹 𝜙 を用いて書けます。 活性化関数がRuleの場合には解析的に書けて、その他の場合は数値的に計算できます。
  8. では、次にガウス過程についてみていきます。
  9. ガウス過程、 𝑓 𝐺𝑃 と書きますが、これは、データの出力のベクトルの分布がガウス分布になることが定義です。 つまり、n個のデータがあった時にそれらをn次元正規分布として表現できることを要求しています。 また、ガウス分布であるので、 その期待値を指定する平均関数と共分散関数、これはさきほどのカーネル関数を使いますが、 これらを指定してやれば完全に分布を特定できます。
  10. では、ガウス過程のイメージですが、こちらの図を見てください。 まずはデータ間の関係性、類似度をカーネル関数で計算します。 そして、そのカーネル関数からの出力を共分散行列とするガウス分布を考えます。 それらのサンプルがガウス過程の具体的な出力になります。 カーネル関数で測って似ているデータは同じような値を取ります。 特徴としては、2つあって、 一つが、オレンジ線が平均をプロットしていて、点線が2σをプロットしてますが、 データが多いところでは分散が小さくなり、データが少ないところでは分散が大きくなります。 もう一つは、1次関数などの関数形を具体的に決めてないため、外挿に強く、サンプルの傾向が変わってもある程度対応できます。
  11. では次に、このガウス過程を用いた回帰モデルを考えます。 つまり、ある被説明変数yをガウス過程と独立な正規ノイズの和で表現できるとします。 すると、ガウス分布同士の和になり、またガウス分布になります。 これは正規分布の性質ですね。 ここで、さらに新たなデータZが与えられたとき、その予測値 𝑓 𝐺𝑃 ∗ を推定したいとします。 ガウス過程の定義から、わかっているyと予測値 𝑓 𝐺𝑃 ∗ の分布もスライドのような結合ガウス分布になります。 するとこの結合ガウス分布の条件付き分布、yを知ったときの予測値 𝑓 𝐺𝑃 ∗ の分布を計算することで、 このような形で分布を特定できます。 また分布はガウス分布なので最尤法で容易に計算可能です。
  12. では、t過程は、データをt分布、下に密度関数がありますが、 これで表現するところだけがガウス過程と違います。 カーネルを二つのサンプルの時点の小さいほうとして場合、 ガウス過程とt過程のサンプルをプロットしたのがスライドの図です。 ガウス過程はようはブラウン運動です。 t過程は見てわかる通り外れ値を考慮でき、 ガウス過程とほぼ同じ性質をもつ一方で、自由度のパラメータが増えます。
  13. では、先ほどと同じく、t過程を用いた回帰モデルを考えます。 違いは、自由度のパラメータνが入っており、ノイズがt分布である点です。 そして、t分布は和については、近似的に成り立ちます。 先ほど同様に新たなデータZが与えられたとき、予測値 𝑓 𝑇𝑃 ∗ は、 まず結合分布を考えて、さらにその条件付き分布をとることで、予測できます。
  14. では、具体的にt過程にすることの有効性を確認していきたいと思います。 データはTPX、SP、DAXの月次データを使います。 ベンチマークは当然深層ガウス過程回帰モデルです。 データの期間は2018年6月からの直近12年分を使用し、推定に7割、テストに3割使用します。 全期間の統計量はこちらの表の通りで、やはり正規性を満たさないため、ガウス過程よりもt過程の方がよさそうです。 回帰モデルの説明変数は、適当に各指数の配当利回り、PBR、PER、ROE、12-1カ月のモメンタムとし、 翌月のリターンを説明します。
  15. モデルの推定はこちらの通りで最尤法で推定し、 評価指標としてテスト期間のRMSEとMAEを用いる。
  16. こちらが結果のまとめです。 左の表は各指数のGPとTPのRMSEとMAEのサマリーです。 その右の表はGPに対してTPがどれだけ精度が改善したかという改善率を示しています。 表から全ての指数においてRMSEとMAEともにTPの方が精度が良いという結果になりました。 また、中段は予測誤差が大きい場合の結果で、下段は予測誤差が小さい場合の結果です。
  17. こちらはSPXの予測誤差と精度の関係をプロットしたものです。 ちょうど最初のスライドに見せたものと同様の図です。
  18. 過去のファイナンスの研究が指摘していることを利用できる。