SlideShare a Scribd company logo
1 of 72
ファクター投資の新潮流
‐機械学習を用いた株式ファクター投資
日本CFA協会セミナー
2019/6/20
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
2
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
3
4
方法論
• 時系列予測
• クロスセクション予測
データ
• テクニカル
• ファンダメンタルズ
• オルタナティブ
手法
• パラメトリック
• ノンパラメトリック
効率的市場仮説(EMH)
Weak:テクニカル、Semi Strong:ファンダメンタルズ、Strong:全てのデータ
に基づく分析によって超過収益は獲得できない。Fama (1970)
株価予測手法のサマリー
株価予測のための方法論
投資ユニバース
時
系
列
予
測
クロスセクション予測
銘柄A 銘柄B ・・・
今月
前月
・
・
・
・
過去(既知)のデータ
✔ 過去データからの予測で最も高い(プラス)
リターンの銘柄を買う。
最も簡単な例:AR(1)モデル
𝑟t:時点tのリターン、 𝑥 𝑡:リターン以外のデータ
𝑟t = 𝑓(𝑟𝑡−1, … , 𝑥 𝑡−1, … )
𝑟t = 𝛼𝑟𝑡−1 + 𝑐 + 𝜀𝑡
✔ いかに高精度の𝑓を見つけ出すか
クロスセクション予測時系列予測
✔ いかに良質な魅力度(組み合わせ)を見つけ出すか
最も簡単な例:分位ポートフォリオ
割安割高
売り 買い
最も魅力的な分位を買い、逆を売り。
第1分位第5分位
✔ ある基準でユニバース内で比較して、
相対的に魅力的な銘柄を買う。
先月末時点のPBRでユニバースをソートする。
5
“… and the cross-section of expected returns“ Harvey et,al. [2016] Review of Financial Studies
✔ ある基準=ファクターと呼ばれ、2012年までに少なくとも316のファクターが試され、
さらにそれらのファクターの大部分は過去10年のものであることが報告されている。
クロスセクション予測の基準としてのファクター
✔ パラメトリック(回帰分析)の枠組みでの検証が多数。
6
ファイナンス、会計、経済の専門誌に掲載された 79 の論文からクロスセクショナルな株式リターン
を予測する。
97 の予測変数の、次の期間における予測力を比較する。
1. 元となる論文のサンプル期間(In-Sample)
2. 元となる論文のサンプル期間後で、論文出版前の期間(Out of-Sample)
3. 論文出版後の期間(Post-Publication)
“Does academic research destroy stock return predictability?” McLean and Pontiff [2016] J of Finance
97の各予測変数に対して、元の論文で高いリターンであった上位 20%ロングと下位 20%ショートに基づく
ロング/ショートポートフォリオを構築。
その結果、ロング/ショートポートフォリオのリターンは、2.のアウトオブサンプルでは 26%減少し、3.の論文出版後には
58%低下する。
つまり、両者の差の約 32%が出版効果の上限である。そのためリターンの予測可能性は完全に消滅するという仮説は
棄却されるものの、出版後の予測可能性は変わらないという仮説も棄却された。
クロスセクション予測の基準としてのファクター
7
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
8
予測対象
相対魅力度
 将来リターンを予測する様々なファクターが多数報告されている (2012年時点で314! Harvey,et al.[2014])
 クオンツ運用では一般に様々なファクターを合成した相対魅力度に基づいて投資する。
株式マルチファクター(クオンツ)運用戦略
⇒ 何らかの基準でファクターを絞った後、単純な合成比率(線形モデル)で将来リターンを算出。
ファクター群
●
●
●
ROE
1か月リターン
機械学習
ファクターを絞らず、大量のファクターから機械学習によりファクター群の非線形な関係をとらえたい。
機械学習とクロスセクション予測
9
ファクター群 ファクター抽出 相対魅力度算出
従来の株式マルチファクター運用
10
ROE
1か月リターン
●
●
●
ファクター群 ファクター抽出 相対魅力度算出
従来の株式マルチファクター運用
11
ROE
1か月リターン
●
●
●
割安系
成長系
クオリティ系
テクニカル系
ファクター群 ファクター抽出 相対魅力度算出
従来の株式マルチファクター運用
12
ROE
1か月リターン
●
●
●
割安系
成長系
クオリティ系
テクニカル系
人間の判断による
ファクター抽出(分類)
ファクター群 ファクター抽出 相対魅力度算出
従来の株式マルチファクター運用
13
ROE
1か月リターン
●
●
●
割安系
成長系
クオリティ系
テクニカル系
相対魅力度
人間の判断による
ファクター抽出(分類)
線形予測(回帰分析)
ファクター群 ファクター抽出 相対魅力度算出
 買いも売りも対等に評価。
 ファクターを単調に評価。
従来の株式マルチファクター運用
14
 買いも売りも対等に評価。
 ファクターを単調に評価。
ROE
1か月リターン
●
●
●
割安系
成長系
クオリティ系
テクニカル系
相対魅力度
人間の判断による
ファクター抽出(分類)
線形予測(回帰分析)
ファクター群 ファクター抽出 相対魅力度算出
ファクターを絞らず、大量のファクターから機械学習
によりファクター群の非線形な関係をとらえたい。
深層学習の適用
従来の株式マルチファクター運用
15
ファクター群 ファクター抽出 相対魅力度算出
深層学習を用いた株式マルチファクター運用
16
ROE
1か月リターン
●
●
●
ファクター群 ファクター抽出 相対魅力度算出
深層学習を用いた株式マルチファクター運用
17
ROE
1か月リターン
・
・
・
・
・
・
●
●
●
・
・
・
・
・
・
・
・
・
ファクター群 ファクター抽出 相対魅力度算出
深層学習を用いた株式マルチファクター運用
18
ROE
1か月リターン
・
・
・
・
・
・
●
●
●
・
・
・
・
・
・
・
・
・
深層学習で有効なファクターを段階的に抽出
(人間の判断を入れない)
ファクター群 ファクター抽出 相対魅力度算出
深層学習を用いた株式マルチファクター運用
19
相対魅力度
ROE
1か月リターン
・
・
・
・
・
・
●
●
●
・
・
・
・
・
・
・
・
・
深層学習で有効なファクターを段階的に抽出
(人間の判断を入れない)
非線形予測(深層学習)
ファクター群 ファクター抽出 相対魅力度算出
 買いも売りを別評価。
 ファクターを非単調に評価。
深層学習を用いた株式マルチファクター運用
20
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
21
「Deep Factor Model」
Kei Nakagawa, Takumi Uchida and Tomohisa Aoshima,
3rd Workshop on MIDAS@ECML-PKDD 2018 ([preprint] arXiv:1810.01278)
 Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証
 80個のファクターを用いて、1カ月先の将来リターンの順位による魅力度を予測
 投資対象ユニバース:TOPIX構成銘柄(2006年-2016年、月次)
 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした
実証分析 その1
22
 実務的によく使う5つのファクターと
その特徴量(ディスクリプター)を16個使用。
 16個の特徴量の四半期ごとの過去5時点、
16 × 5 = 80個の特徴量を使用。
No ディスクリプター(特徴量) ファクター
1 過去60カ月ボラティリティ リスク
2 市場ベータ リスク
3 歪度 リスク
4 ROE クオリティ
5 ROA クオリティ
6 アクルーアルズ クオリティ
7 負債比率 クオリティ
8 過去60カ月リターン モメンタム
9 過去12カ月-直近1カ月リターン モメンタム
10 過去1カ月リターン モメンタム
11 PSR バリュー
12 PER バリュー
13 PBR バリュー
14 PCFR バリュー
15 時価総額 サイズ
16 ILLIQ サイズ
深層学習を用いた株式マルチファクター運用の実証分析
23
モデル 概要
深層学習 隠れ層が(80-50-10),(80-80-50-50-10-10)の全結合のネットワーク
深層学習 活性化関数はランプ関数(ReLU)、Tensorflowを使用
線形モデル “sklearn.linear_model.LinearRegression”
サポートベクター回帰モデル “sklearn.svm.SVR”
ランダムフォレスト “sklearn.ensemble.RandomForestRegressor”
 Tensorflowおよびsklearnを用いて実装。
 深層学習の有効性を検証するため、線形モデル、非線形モデルをベンチマークとし検証。
 各モデルの相対魅力度の5分位 - 1分位ポートフォリオの収益性を評価。
 パラメータは言及のないものはデフォルト値を使用
深層学習を用いた株式マルチファクター運用の実証分析
24
ディスクリプター
1,2,… 80
2006年3月
TOPIX
構成銘柄
パーセンタイル
ランキング
(ディスクリプター毎)
パーセンタイル
ランキング
2006年2月
TOPIX
構成銘柄
パーセンタイル
ランキング
(ディスクリプター毎)
パーセンタイル
ランキング
1996年2月
TOPIX
構成銘柄
パーセンタイル
ランキング
(ディスクリプター毎)
パーセンタイル
ランキング
1カ月先リターン銘柄時点
…
 訓練データ(1セット)
・ 特徴量:80個のディスクリプター
・ 教師データ:1か月先リターン
 過去120か月分の訓練データを用いて学習。
 各時点において、データをパーセンタイル化
(相対魅力度のための前処理)
 予測は2006年~2016年で行う。
例)2006年4月の訓練データセット
特徴量 教師データ
訓練データ
セット:1
訓練データ
セット:2
・
・
・
訓練データ
セット:120
深層学習を用いた株式マルチファクター運用の実証分析
25
< 平均絶対リターン> ※年率換算
 絶対リターン
・ 他の非線形モデルに対して深層学習の結果は良好。
・ 線形モデルも悪くない。ただし、非線形モデルのパラメータはデフォルト値。
深層学習を用いた株式マルチファクター運用の実証分析
26
< R/R > ※年率換算
 R/R(リスクリターン)
・ R/Rにおいても、絶対リターンと同様の傾向がみられる。
・ 線形モデルも悪くない。ただし、非線形モデルのパラメータはデフォルト値。
⇒下手な非線形モデルを使うなら線形でも良い。
深層学習を用いた株式マルチファクター運用の実証分析
27
「深層学習を用いたマルチファクター運用の実証分析」
阿部真也, 中川慧
第21回金融情報学研究会 (https://sigfin.org/021-03/)
 Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証
 33個のファクターを用いて、将来5営業日先の将来リターンの順位による魅力度を予測
 投資対象ユニバース:TOPIX500構成銘柄(2013年-2017年、日次)
 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした
深層学習を用いた株式マルチファクター運用の実証分析
28
No. 特徴量 (ディスクリプター) No. 特徴量 (ディスクリプター) No. 特徴量 (ディスクリプター)
1 当日リターン 12 過去20日/過去60日の売買金額 23 CF/P
2 対2日前リターン 13 営業利益予想の変化(対5日前) 24 ROE
3 対3日前リターン 14 営業利益予想の変化(対10日前) 25 ROA
4 対5日前リターン 15 営業利益予想の変化(対20日前) 26 ROIC
5 対10日前リターン 16 目標株価の変化(対5日前) 27 アクルーアルズ
6 対20日前リターン 17 目標株価の変化(対10日前) 28 総資産回転率
7 対40日前リターン 18 目標株価の変化(対20日前) 29 流動比率
8 対60日前リターン 19 B/P 30 自己資本比率
9 過去60日の平均売買金額 20 E/P 31 総資産成長率
10 過去5日/過去60日の売買金額 21 配当利回り 32 CAPEX成長率
11 過去10日/過去60日の売買金額 22 S/P 33 Investment to Asset
 実務でよく使用すると思われる33個のディスクリプターを使用
 TOPIX500構成銘柄に対し、各時点(日次系列)で計算し、使用。
※ただし、No.19以降は毎月末に値が変わる月次データ
深層学習を用いた株式マルチファクター運用の実証分析
29
・・・ ・・・
・・・ 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・
: :
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
特徴量 教師データ
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4
時点
t-7 t-6 t-5 t-4
・・・
訓練データ
1000セット
[train1]
:
[train1000]
 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略
深層学習を用いた株式マルチファクター運用の実証分析
30
・・・ ・・・
・・・ 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・
: :
: :
特徴量 教師データ
特徴量 教師データ
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4
時点
t-7 t-6 t-5 t-4
・・・
訓練データ
1000セット
訓練データ
1000セット
[train1]
:
[train1000]
[train1]
:
リバランス
 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略
深層学習を用いた株式マルチファクター運用の実証分析
31
・・・ ・・・
・・・ 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・
: :
: :
特徴量 教師データ
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
特徴量 教師データ
t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4
時点
t-7 t-6 t-5 t-4
・・・
訓練データ
1000セット
訓練データ
1000セット
[train1]
:
[train1000]
[train1]
:
リバランス
・
・
・
 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略
深層学習を用いた株式マルチファクター運用の実証分析
32
・・・ ・・・
・・・ 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・
: :
: :
特徴量 教師データ
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
ポートフォリオの20%保有
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
特徴量 教師データ
ポートフォリオの20%保有
(学習あり)
特徴量 教師データ
t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4
時点
t-7 t-6 t-5 t-4
・・・
訓練データ
1000セット
訓練データ
1000セット
[train1]
:
[train1000]
[train1]
:
リバランス
・
・
・
検証期間:2013年~2017年 ※寄り基準
5本の合成ポートフォリオの日次リターンを計測
 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略
深層学習を用いた株式マルチファクター運用の実証分析
33
モデル 隠れ層(Dropout) エポック数
DNN_1
500 – 200 – 100 – 50 – 10
(50% – 40% – 30% – 20% – 10%) 20
DNN_2
500 – 200 – 100 – 50 – 10
(50% – 40% – 30% – 20% – 10%) 30
DNN_3
200 – 200 – 100 – 100 – 50
(50% – 50% – 30% –30% – 10%) 20
DNN_4
200 – 200 – 100 – 100 – 50
(50% – 50% – 30% – 30% – 10%) 30
DNN_5
300 – 300 – 150 – 150 – 50
(50% – 50% – 30% – 30% – 10%) 20
DNN_6
300 – 300 – 150 – 150 – 50
(50% – 50% – 30% – 30% – 10%) 30
・ 深層学習の構造
 全結合型のフィードフォワード
 6パターン
(エポック数が違う3パターン)
 活性化関数:ReLU
 TensorFlow
深層学習を用いた株式マルチファクター運用の実証分析
34
・ ランダムフォレスト
 scikit-learnの以下のクラスを使用
「sklearn.ensemble.RandomForestRegressor」
-特徴量の数:max_features
-木の数:n_estimators
-深さ:max depth
モデル 特徴量の数 木の数 深さ
RF_1 11 1000 3
RF_2 11 1000 5
RF_3 11 1000 7
・ リッジ回帰
 scikit-learnの以下のクラスを使用
「sklearn.linear model.Ridge」
-正則化パラメータ:alpha
モデル 正則化パラメータ
RR_1 0.1
RR_2 1.0
RR_3 10.0
深層学習を用いた株式マルチファクター運用の実証分析
35
< 平均絶対リターン> ※年率換算
 絶対リターン
・ DNNはパターンによる水準の違いが、相対的に大きい。
エポック数の違い(20 or 30)では、総じて20回が良い。
・ RRのパターンが良いものの、DNNで上回っているパターン(DNN_3, DNN_5)がある。
深層学習を用いた株式マルチファクター運用の実証分析
36
 R/R(リスクリターン)
・ 総じて、DNNのパターンが良い。
⇒ DNNは買い、売りの両方で収益獲得の機会がある
・ R/Rにおいても、DNNのエポック数の違い(20 or 30)では、総じて20回が良い。
⇒ (本研究でのパターンにおいては、) 30回は過学習。
< R/R>
深層学習を用いた株式マルチファクター運用の実証分析
37
「グローバル株式市場における深層学習を用いたマルチファクター運用の実証分析」
阿部真也, 中川慧
第33回人工知能学会全国大会
https://www.jstage.jst.go.jp/article/pjsai/JSAI2019/0/JSAI2019_4Rin135/_article/-char/ja/
 Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証
 20個のファクターを用いて、1カ月先の将来リターンの順位による魅力度を予測
 投資対象ユニバース:
北米:MSCI Americas
ヨーロッパ・中東:MSCI Europe & Middle East
アジアパシフィック:MSCI Pacific
(2005年-2017年、月次)
 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした
実証分析 その3
38
No. 特徴量 (ファクター) No. 特徴量 (ファクター)
1 株価純資産倍率 11 流動比率
2 株価収益率 12 自己資本比率
3 配当利回り 13 総資産回転率
4 株価売上高倍率 14 CAPEX成長率
5 株価キャッシュフロー倍率 15 EPS リビジョン (対1か月)
6 自己資本利益率 16 EPS リビジョン (対3か月)
7 総資本利益率 17 1か月株価モメンタム
8 投下資本利益率 18 12か月株価モメンタム
9 アクルーアルズ 19 ボラティリティ
10 総資産成長率 20 歪度
※No.1,2,4,5:逆数を使用. No.18:直近1か月除く
深層学習を用いた株式マルチファクター運用の実証分析
 グローバルで有効と思われる20個のディスクリプターを使用
 各国のMSCI指数構成銘柄に対し、各時点(月次系列)で計算し、使用。
39
予測に用いたモデル
 深層学習(DNN)
タイプ 隠れ層 ドロップアウト
FFNN 150 – 150 – 100 – 100 – 50 – 50 50%
 ランダムフォレスト(RF)
特徴量数 木の数 深さ
20 1000 5
 リッジ回帰(RR)
正則化係数
1.0
深層学習を用いた株式マルチファクター運用の実証分析
40
※評価期間:2005年1月~2017年12月
ポートフォリオは等金額で構築
深層学習を用いた株式マルチファクター運用の実証分析
 R/R(リスクリターン)
・ 深層学習のパフォーマンスが良好
(傾向として、Return水準:高 / Risk水準:低)
・ 市場効率性が高い地域程、収益獲得の機会が低下
 絶対リターン
・ 地域ごとにバラつきがある
・ 市場効率性が高い地域程、収益獲得の機会が低下
41
アウトライン
・株価予測の方法論
・機械学習を用いた株価予測
・深層学習を用いた実証分析
・深層学習の課題と解決手法
42
説明 (Explanation)・解釈可能性 (Interpretablity):
予測結果の根拠や、予測モデルの予測過程を人間に説明する必要がある。
データ量/計算量(Computation cost):
大量のデータやGPUを多用する必要がある。
安全性 (Security):
訓練データに対する悪意のある介入や改竄などで、
予測モデルが改変されないようにする必要がある。
プライバシ (Privacy):
個人情報を秘匿と、データ分析とを両立する必要がある。
公平性 (Fairness):
予測モデルが、社会的な公平性を保つようにする必要がある。
深層学習の課題
43
・ 透明性の原則:
開発者は、AI システムの入出力の検証可能性および判断結果の説明可能性に留意する。
・ アカウンタビリティの原則:
開発者は、利用者を含むステークホルダに対し、アカウンタビリティを果たすよう努める。
 総務省は AI の利用の増進とそのリスクの抑制のために「AI 開発ガイドライン案」を2017年に策定。
ここには以下の原則が盛り込まれている。
 EU においても、同様の内容が General Data Protection Regulation(GDPR)として
2018年5月より施行。(特に GDPR-22 が上記のガイドラインに対応)
AIの解釈性、説明責任
44
忖度せよ
予測結果
 深層学習は様々な分野で、高い精度をあげているが、判断根拠がよくわからないと言われている。
 深層学習(も)は、悪意ある攻撃によって誤認させることができる。
“Intriguing properties of neural networks“ ICLR 2015
深層学習の判断根拠を理解することで、
こうした攻撃を受けた際に気づける可能性がある。
テナガザルパンダ ノイズ
深層学習の解釈性
45
 モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(1) ネットワークの出力を最大化する入力を作成する
(Activation Maximization)
(2) 入力に対する感度を分析する
(Sensitivity Analysis)
(3) 出力から入力を逆にたどり判断の根拠を提示
(Layer-wise Relevance Propagation;LRP)
深層学習の解釈手法
46
 モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(1) ネットワークの出力を最大化する入力を作成する
(Activation Maximization)
https://distill.pub/2017/feature-visualization/
建物と空最も「建物と空」と判定されやすい画像
ネットワークの判断根拠をよく示す入力
→そのネットワークの最も理想的なインプット(代表例)は何か?
Googleの猫、Deep Dream
深層学習の解釈手法
47
 モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(2) 入力に対する感度を分析する
(Sensitivity Analysis)
チーターどこを変えるとチーターでなくなるか?
https://pair-code.github.io/saliency/感度分析
→入力がちょっと変わったときに最も出力が変化する入力(感応度が高い)はどれか?
深層学習の解釈手法
48
 モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。
(3) 出力から入力を逆にたどり判断の根拠を提示
(Layer-wise Relevance Propagation;LRP)
鳥
判
断
結
果
の
寄
与
度
予測の要因分解
ファクターモデルの観点から、
寄与度(要因分解)が解ることが最も嬉しい。
→その出力と判断したのは入力のどこに着目(根拠)したか?
http://www.heatmapping.org/slides/2018_CVPR_3.pdf
深層学習の解釈手法
49
LRPとは何か?
50
50%
30%
20%
どのノードをどれだけ信用(Relevance)したか
=
100% これは学習済のモデルからわかる
 階層ごとに貢献を特定していく。
 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
51
50%
=
100% これは学習済のモデルからわかる
30%
50%
20%
どのノードをどれだけ信用(Relevance)したか
 階層ごとに貢献を特定していく。
 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
52
50%
これは学習済のモデルからわかる
15%
25%
10%
どのノードをどれだけ信用(Relevance)したか
 階層ごとに貢献を特定していく。
 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
53
これは学習済のモデルからわかる
20%
30%
20%
30%
どのノードをどれだけ信用(Relevance)したか
 階層ごとに貢献を特定していく。
 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
54
これは学習済のモデルからわかる
30%
35%
30% 20%
=
100%
どのノードをどれだけ信用(Relevance)したか
 階層ごとに貢献を特定していく。
 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
55
これは学習済のモデルからわかる
30%
35%
30%
20%
40%
40%
=
100%
どのノードをどれだけ信用(Relevance)したか
 階層ごとに貢献を特定していく。
 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
LRPとは何か?
56
これは学習済のモデルからわかる
20%
40%
40%
=
100%
20%
30%
40%
10%
判
断
結
果
の
寄
与
度
予
測
の
要
因
分
解
=
どのノードをどれだけ信用(Relevance)したか
 階層ごとに貢献を特定していく。
 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
隠れ層 [20, 10, 5]の深層学習で学習。
 LRPが本当に出力の根拠を示すのか簡単な非線形問題をもとに検証。
教師データと学習データの間の関係は以下の通り。
入力層 出力層
・
・
・
・
・
・
・
・
・
・
・
・
隠れ層
・
・
・
・
・
・
・
・
・
・
・
・
3,000個
𝑦 = 10𝑥1 + 5𝑥2 − 5𝑥3 𝑥4 𝑥5
教師データ:𝑦 学習データ:𝑥1~𝑥10(𝑥6~𝑥10はノイズ)を[0,1]の一様乱数から3,000個生成。
LRPの回帰問題での妥当性の検証
57
変数 X1 X2 X3 X4 X5
LRPの平均 7.47 3.98 -1.78 -1.68 -1.89
寄与度 39.52% 21.06% -9.42% -8.89% -10.00%
変数 X6 X7 X8 X9 X10
LRPの平均 0.06 -0.66 0.71 0.59 0.08
寄与度 0.32% -3.49% 3.76% 3.12% 0.42%
 意味のある変数の寄与が大きい。また𝑥2は𝑥1のおよそ1/2、 𝑥3 + 𝑥4 + 𝑥5はおよそ𝑥2とインパクトも近似。
 LRPが本当に出力の根拠を示すのか簡単な非線形問題をもとに検証。
教師データと学習データの間の関係は以下の通り。
𝑦 = 10𝑥1 + 5𝑥2 − 5𝑥3 𝑥4 𝑥5
学習後のネットワークと3,000個の教師データからLRPで入力の平均と寄与度を計算。
教師データ:𝑦 学習データ:𝑥1~𝑥10(𝑥6~𝑥10はノイズ)を[0,1]の一様乱数から3,000個生成。
LRPの回帰問題での妥当性の検証
58
相対魅力度
ROE
1か月リターン
・
・
・
・
・
・
●
●
●
・
・
・
・
・
・
・
・
・
深層学習で有効なファクターを段階的に抽出
(人間の判断を入れない)
非線形予測
ファクター群 ファクター抽出 相対魅力度
LRP要因分解 相対魅力度
マルチファクター・モデルを深層学習によって非線形化。
リターンモデル
リスクモデル
Deep Factor Model
59
 要因分解例(LRP)
Risk Quality Momentum Value Size
Spearman 0.14 0.22 0.24 0.08 0.14
Kendall 0.10 0.15 0.17 0.06 0.10
0%
5%
10%
15%
20%
25%
30%
35%
Risk
Quality
MomentumValue
Size
最も高いリターン 第1分位
 要因分解例(順位相関)
Deep Factor Model
60
深層学習のベイズ推論化
✔ 隠れ層が多層の場合のニューラルネットワーク(深層学習)に対応するカーネル関数の導出
(Cho and Saul [2009])
✔ 深層学習カーネルを用いた深層ガウス過程回帰モデルの提案(Lee et, al.[2018])
・点推定である(信頼区間などの確率情報がない)
・ハイパーパラメータが多く、過学習しやすい
・収束の確認が難しく、モデル比較ができない
深層学習は様々な分野/タスクで非常に高い性能を挙げているが、下記をはじめ問題点も多くある。
深層学習のベイズ推論化、ガウス過程で表現するアプローチが注目されている。
✔ 隠れ層が単層の場合のニューラルネットワークに対応するカーネル関数の導出(Neal [1994])
・学習に大量のデータが必要
61
62
モデルができないこと、苦手なことを理解できる。
以上を踏まえて、一般に裾の厚い金融時系列データへの適用のため、
深層ガウス過程回帰から、深層t過程回帰への拡張と有効性の評価を行う。
予測に自信がない(=予測誤差が大きい)と
実際に予測も間違えやすい
深層ガウス過程回帰モデルの画像データ予測に対する予測誤差(横軸)と予測精度(縦軸)
しかも精度は深層学習と同程度。
Lee et, al.[2018]より抜粋
深層学習のベイズ推論化
深層学習カーネル
𝐾 𝑙
𝑥, 𝑥′
= 𝜎 𝑏
2
+ 𝜎 𝑤
2
𝐹 𝜙(𝐾 𝑙−1
𝑥, 𝑥 , 𝐾 𝑙−1
𝑥, 𝑥′
, 𝐾 𝑙−1
𝑥′
, 𝑥′
)
引数を𝑙 − 1層のカーネルとしたとき、活性化関数𝜙によって異なる関数𝐹 𝜙を用いて表現できる。
𝐾 𝑙 𝑥, 𝑥′ = 𝜎 𝑏
2
+
𝜎 𝑤
2
2
𝐾𝑙−1 𝑥, 𝑥 𝐾𝑙−1 𝑥′, 𝑥′ (sin 𝜃 𝑙−1 + 𝜋 − 𝜃 𝑙−1 cos 𝜃 𝑙−1)
𝜃 𝑙−1 =
𝐾 𝑙−1 𝑥, 𝑥′
𝐾 𝑙−1 𝑥, 𝑥 𝐾 𝑙−1 𝑥′, 𝑥′
𝐹 𝜙は活性化関数がReLUの場合には以下のように解析的に書け、
その他の場合には数値的に計算できる。
中間層に無限個ユニット数を持つ非線形関数(NN)に対応したカーネル関数が存
在。単層の場合; Neal [1994]
多層の場合; Cho and Saul [2009]
63
ガウス過程
カーネル
関数
𝑥1 𝑥2
𝑥1
𝑥2
𝑥1𝑥2
ガウス過程のイメージ(サンプル)
…
…
…
𝐾
【1】カーネル関数によって類似度を計算
【2】カーネル関数を共分散行列とする
ガウス分布から𝑓のサンプルを得る
「近い」データは似たような値をとる。
𝜇
2
×
標
準
偏
差
データ点が多いほど、予測誤差は小さく、
データ点が少ないほど、予測誤差は大きい。
途中でサンプルの傾向が変わった場合に対応可能
外挿に強い
64
ガウス過程回帰モデル
𝑦𝑖 = 𝑓𝐺𝑃 𝒙𝑖 + 𝜀𝑖 𝑓𝐺𝑃~𝑁(𝝁(𝑿), 𝑲(𝑥, 𝑥0))
𝑓𝐺𝑃 + 𝜀𝑖~𝑁(𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰)
𝑦
𝑓𝐺𝑃
∗ ~𝑁
𝜇(𝑿)
𝜇(𝒁)
,
𝐾 𝑿, 𝑿 + 𝜎2
𝑰 𝐾 𝒁, 𝑿 𝑇
𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁
𝑝 𝑓𝐺𝑃
∗
𝑦 =
𝑝 𝑓𝐺𝑃
∗
, 𝑦
𝑝 𝑦
~𝑁( 𝜇, Σ)
𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝑦 − 𝜇 𝒁 + 𝜇(𝒁)
Σ = 𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿
𝜀𝑖~𝑁(0, 𝜎2)
ガウス過程を使った回帰モデルを考える。
ガウス分布の畳込みはまたガウス分布であるので、
ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚
𝑇が与えられたとき、その予測値𝑓𝐺𝑃
∗
= 𝑓𝐺𝑃
∗
(𝒛1), … , 𝑓𝐺𝑃
∗
(𝒛 𝑚) 𝑇と
𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びガウス過程となり、
𝒚の下での予測値𝑓𝐺𝑃
∗
の分布は、条件付き分布を計算することで、
分布があるので最尤法で推定可能
,
65
t過程
メリット:
外れ値を考慮できる。
ガウス過程とほぼ同じ性質がある
デメリット:
自由度のパラメータが増える。
t過程 ガウス過程
𝐾(𝑠, 𝑡) = min(s, t) ;Wiener processの平均0のガウス過程とt過程(自由度5)を100サンプル生成
𝑇 𝜈, 𝝁, 𝑲 =
Γ
𝜈 + 𝑛
2
𝜈 − 2 𝜋
𝑛
2Γ
𝜈
2
det 𝑲 −
1
2 × 1 +
𝒚 − 𝝁 𝑇
𝑲−1
𝒚 − 𝝁
𝜈 − 2
−
𝜈+𝑛
2
t 過程とガウス過程の違い
指数関数の定義から
𝜈 → ∞でガウス分布へ収束。
・・・𝑛 個のデータを 𝑛 次元t分布として表現
66
t過程回帰モデル
𝑦𝑖 = 𝑓𝑇𝑃 𝒙𝑖 + 𝜀𝑖 𝑓𝑇𝑃~𝑇(𝜈, 𝝁(𝑿), 𝑲(𝑥, 𝑥0))
𝑓𝑇𝑃 + 𝜀𝑖 ≈ 𝑇(𝜈, 𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰)
𝑦
𝑓𝑇𝑃
∗ ~𝑇 𝜈,
𝜇(𝑿)
𝜇(𝒁)
,
𝐾 𝑿, 𝑿 + 𝜎2
𝑰 𝐾 𝒁, 𝑿 𝑇
𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁
𝑝 𝑓𝑇𝑃
∗
𝑦 =
𝑝 𝑓𝑇𝑃
∗
, 𝑦
𝑝 𝑦
~𝑇( 𝜈, 𝜇, Σ)
𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝒚 − 𝜇 𝒁 + 𝜇(𝒁)
Σ =
𝜈 − 𝛽 − 2
𝜈 − 𝑛 − 2
𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿
𝜀𝑖~𝑇(𝜈, 0, 𝜎2)
t過程を使った回帰モデルを考える。
t分布の畳込みはまたt分布にならないが、近似的に、
ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚
𝑇が与えられたとき、その予測値𝑓𝑇𝑃
∗
= 𝑓𝑇𝑃
∗
(𝒛1), … , 𝑓𝑇𝑃
∗
(𝒛 𝑚) 𝑇と
𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びt過程となり、
𝒚の下での予測値𝑓𝑇𝑃
∗
の分布は、条件付き分布を計算することで、(論文参照)
𝜈 = 𝜈 + 𝑚 𝛽 = 𝒚 − 𝜇 𝑿
𝑇
𝐾 𝑿, 𝑿 −𝟏 𝒚 − 𝜇 𝑿
分布があるので最尤法で推定可能
,
67
実証分析
各国の株式指数(TPX,S&P,DAX)の月次データを用いて、深層ガウス過程回帰モデルをベンチマークに、
深層t過程回帰モデルの有効性を確認する。
TPX SPX DAX
年率リターン[%] 2.37 7.38 8.15
年率リスク[%] 18.02 14.24 18.32
歪度 -0.47 -0.82 -0.56
尖度 5.22 6.2 5.69
Jarque-Beta統計量 12.94 41.75 23.67
p-値[%] 0.155 0 0.0007
・データは2018/6末から直近12年分 (144 サンプル) を使用し、うち推定に7割、テストに3割使用する。
全期間における各指数の統計量
各指数ともに正規性を満たさないため、t過程をあてはめる余地がある。
・各指数の配当利回り、PBR、PER、ROE、12-1 か月モメンタムを説明変数とし、
翌月のリターンを非説明変数とする。 68
実証分析
指数
Total GP TP GP TP GP TP
RMSE 0.3511 0.2158 1.0357 0.5076 0.2934 0.1134
MAE 0.2914 0.1622 0.891 0.4282 0.2489 0.0808
予測誤差(大) GP TP GP TP GP TP
RMSE 0.3561 0.2623 1.3646 0.6856 0.3285 0.139
MAE 0.2937 0.2079 1.3431 0.6674 0.2759 0.1014
予測誤差(小) GP TP GP TP GP TP
RMSE 0.3458 0.1524 0.565 0.2343 0.2553 0.08
MAE 0.2892 0.1142 0.4594 0.1999 0.2231 0.0602
TPX SPX DAX
GPはデータの非正規性により、異常値に振らされた予測を行うため、
TPよりも精度が悪いのでは。
精度の分析(1層)
指数 TPX SPX DAX
Total
RMSE 38.5% 51.0% 61.3%
MAE 44.3% 51.9% 67.5%
予測誤差(大)
RMSE 26.3% 49.8% 57.7%
MAE 29.2% 50.3% 63.2%
予測誤差(小)
RMSE 55.9% 58.5% 68.7%
MAE 60.5% 56.5% 73.0%
改善率
改善率
改善率
69
実証分析
SPXの予測誤差(Std)とRMSEとの関係(赤丸:GP、青丸:TP)
・先行研究同様に、金融データにおいても
予測誤差が大きいほど、
予測精度が悪くなっていることがわかる。
・他の指数でも同様の傾向。
70
実証分析
Total 1層 2層 3層 4層
RMSE 0.3511 0.4114 0.3790 0.3893
MAE 0.2914 0.3558 0.3267 0.3354
予測誤差(大) 1層 2層 3層 4層
RMSE 0.3561 0.4218 0.3559 0.3867
MAE 0.2937 0.3621 0.3008 0.3311
予測誤差(小) 1層 2層 3層 4層
RMSE 0.3458 0.4013 0.3997 0.3918
MAE 0.2892 0.3497 0.3514 0.3396
GP
Total 1層 2層 3層 4層
RMSE 0.2158 0.2222 0.1325 0.1385
MAE 0.1622 0.1651 0.1004 0.1104
予測誤差(大) 1層 2層 3層 4層
RMSE 0.2623 0.1619 0.1162 0.1432
MAE 0.2079 0.1238 0.0940 0.1171
予測誤差(小) 1層 2層 3層 4層
RMSE 0.1524 0.2674 0.1464 0.1340
MAE 0.1142 0.2045 0.1066 0.1041
TP
GPは層が深くなっても精度が改善するとは限らない。 一方で、TPは層が深くなると精度が改善傾向。
精度の分析(多層、TPX)
71
まとめ
72
 画像や音声同様に、深層学習による株価予測モデルは、精度、収益性ともに線形モデル、他
の非線形モデルよりも良好な結果。
 また従来の深層学習の問題点であった解釈性等の問題・課題は解決されつつある。
 ネットワーク構造の高度化等が課題
「ファクター」という観点から機械学習(深層学習)を用いた株価予測手法を検討。
Ex. 月次、日次、グローバル市場
「Deep Recurrent Factor Model」
Kei Nakagawa, Tomoki Ito, Masaya Abe and Kiyoshi Izumi
AAAI-19 Network Interpretability for Deep Learning
https://arxiv.org/abs/1901.11493

More Related Content

What's hot

金融予測アルゴリズムのより良い評価手法について
金融予測アルゴリズムのより良い評価手法について金融予測アルゴリズムのより良い評価手法について
金融予測アルゴリズムのより良い評価手法についてKentaro Imajo
 
リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張Kei Nakagawa
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張Kei Nakagawa
 
為替と株の予測の話
為替と株の予測の話為替と株の予測の話
為替と株の予測の話Kentaro Imajo
 
NUPSC招待講演:アルゴリズムで広がる世界
NUPSC招待講演:アルゴリズムで広がる世界NUPSC招待講演:アルゴリズムで広がる世界
NUPSC招待講演:アルゴリズムで広がる世界Kentaro Imajo
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズムHiroshi Nakagawa
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」Shinohara Masahiro
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法Hidetoshi Matsui
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデルMasashi Komori
 
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた. .
 
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎Tomoshige Nakamura
 
状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較Hiroki Itô
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択kazutantan
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)Hidetoshi Matsui
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森Masashi Komori
 
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)Kei Nakagawa
 
金融時系列解析入門 AAMAS2021 著者発表会
金融時系列解析入門 AAMAS2021 著者発表会金融時系列解析入門 AAMAS2021 著者発表会
金融時系列解析入門 AAMAS2021 著者発表会Katsuya Ito
 

What's hot (20)

金融予測アルゴリズムのより良い評価手法について
金融予測アルゴリズムのより良い評価手法について金融予測アルゴリズムのより良い評価手法について
金融予測アルゴリズムのより良い評価手法について
 
リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
 
為替と株の予測の話
為替と株の予測の話為替と株の予測の話
為替と株の予測の話
 
NUPSC招待講演:アルゴリズムで広がる世界
NUPSC招待講演:アルゴリズムで広がる世界NUPSC招待講演:アルゴリズムで広がる世界
NUPSC招待講演:アルゴリズムで広がる世界
 
PRML11章
PRML11章PRML11章
PRML11章
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
 
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
 
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
 
状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較
 
PRML8章
PRML8章PRML8章
PRML8章
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
 
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
 
金融時系列解析入門 AAMAS2021 著者発表会
金融時系列解析入門 AAMAS2021 著者発表会金融時系列解析入門 AAMAS2021 著者発表会
金融時系列解析入門 AAMAS2021 著者発表会
 

Similar to Cfa 20190620

Framework:「コンサルティング事業の推進案」
Framework:「コンサルティング事業の推進案」Framework:「コンサルティング事業の推進案」
Framework:「コンサルティング事業の推進案」Katsuhito Okada
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)cvpaper. challenge
 
前田塾基礎教養編教材④データサイエンス
前田塾基礎教養編教材④データサイエンス前田塾基礎教養編教材④データサイエンス
前田塾基礎教養編教材④データサイエンスKeiichi Maeda
 
2018Rユーザ会用
2018Rユーザ会用2018Rユーザ会用
2018Rユーザ会用wada, kazumi
 
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論Takanobu Mizuta
 
Webマーケターを支援するtableau(タブロー)のケイパビリティ
Webマーケターを支援するtableau(タブロー)のケイパビリティWebマーケターを支援するtableau(タブロー)のケイパビリティ
Webマーケターを支援するtableau(タブロー)のケイパビリティKazuhiro Kida
 
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--Takanobu Mizuta
 
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04Makoto Nonaka
 
Insidesales_FOW_20180907
Insidesales_FOW_20180907Insidesales_FOW_20180907
Insidesales_FOW_20180907Takeshi Aida
 
07232012需要予測モデル0.3 5
07232012需要予測モデル0.3 507232012需要予測モデル0.3 5
07232012需要予測モデル0.3 5Izumi Akiyama
 
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析Koichi Hamada
 
さくさく要件定義セミナー in 大阪
さくさく要件定義セミナー in 大阪さくさく要件定義セミナー in 大阪
さくさく要件定義セミナー in 大阪Zenji Kanzaki
 

Similar to Cfa 20190620 (20)

Framework:「コンサルティング事業の推進案」
Framework:「コンサルティング事業の推進案」Framework:「コンサルティング事業の推進案」
Framework:「コンサルティング事業の推進案」
 
NGK2022S
NGK2022SNGK2022S
NGK2022S
 
Dynamic+arms+fx100225
Dynamic+arms+fx100225Dynamic+arms+fx100225
Dynamic+arms+fx100225
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
 
前田塾基礎教養編教材④データサイエンス
前田塾基礎教養編教材④データサイエンス前田塾基礎教養編教材④データサイエンス
前田塾基礎教養編教材④データサイエンス
 
見積り入門
見積り入門見積り入門
見積り入門
 
2018Rユーザ会用
2018Rユーザ会用2018Rユーザ会用
2018Rユーザ会用
 
Dynamic arms fx090623
Dynamic arms fx090623Dynamic arms fx090623
Dynamic arms fx090623
 
Dynamic+arms+fx090930
Dynamic+arms+fx090930Dynamic+arms+fx090930
Dynamic+arms+fx090930
 
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
 
0515 mrocセミナー 第二部_公開
0515 mrocセミナー 第二部_公開0515 mrocセミナー 第二部_公開
0515 mrocセミナー 第二部_公開
 
0416 mrocセミナー 第二部_公開
0416 mrocセミナー 第二部_公開0416 mrocセミナー 第二部_公開
0416 mrocセミナー 第二部_公開
 
Webマーケターを支援するtableau(タブロー)のケイパビリティ
Webマーケターを支援するtableau(タブロー)のケイパビリティWebマーケターを支援するtableau(タブロー)のケイパビリティ
Webマーケターを支援するtableau(タブロー)のケイパビリティ
 
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
 
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
 
Insidesales_FOW_20180907
Insidesales_FOW_20180907Insidesales_FOW_20180907
Insidesales_FOW_20180907
 
07232012需要予測モデル0.3 5
07232012需要予測モデル0.3 507232012需要予測モデル0.3 5
07232012需要予測モデル0.3 5
 
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
 
さくさく要件定義セミナー in 大阪
さくさく要件定義セミナー in 大阪さくさく要件定義セミナー in 大阪
さくさく要件定義セミナー in 大阪
 
分類分析 (taxometric analysis)
分類分析 (taxometric analysis)分類分析 (taxometric analysis)
分類分析 (taxometric analysis)
 

More from Kei Nakagawa

Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETKei Nakagawa
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~Kei Nakagawa
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)Kei Nakagawa
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...Kei Nakagawa
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaKei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...Kei Nakagawa
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用Kei Nakagawa
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析Kei Nakagawa
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...Kei Nakagawa
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsKei Nakagawa
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Kei Nakagawa
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesKei Nakagawa
 

More from Kei Nakagawa (13)

Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NET
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock Returns
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
 

Cfa 20190620

Editor's Notes

  1. まず株価予測の重要な仮説として効率的市場仮説があります。 これは、3つの段階があり、それぞれ、テクニカルデータ、ファンダメンタルズデータ、そしてあらゆるデータを用いても 収益は獲得できないという仮説です。 これに対して株価予測は非常に多くの分野、手法で研究されてきました。 そこで、株価予測の先行研究を次の3つの観点から整理していきたいと思います。 はじめに株価予測の視点、方法論として、時系列かクロスセクションかという観点、 次に、予測に用いるデータという観点、市場データなのか、財務、経済データを用いるのか、 そして最後に予測手法がパラメトリックな手法か、ノンパラメトリックな手法かという観点です。
  2. 方法論についてもう少し見ていきたいと思います。 時系列予測は、過去のデータを用いて将来の株価を予測する方法です。 標語的にいうと、縦にみていく手法です。 最も単純なものに、ARモデルがあり、 これは単純に過去の株価の線形和で将来の株価を予測するものです。 一方で、クロスセクション予測はある基準で銘柄を並べて、 相対的に魅力的な銘柄群を買います。 こっちは」標語的にいうと、横にみていく手法です。 例えば、PBRという割安度を判断する基準で銘柄を5分位にわけます。 そして、最も割安なものを買い、逆に割高なものを売ります。
  3. 最近では研究が進んでいて、精度を落とさずに深層学習を説明、解釈する手法がいくつか提案されています。 ひとつは、Activation Mximizationといって、ネットワークの出力を~ それぞれ簡単にみていきます。
  4. 最初はActivation Mximizationですが、 これは、深層学習のネットワークの最も理想的なインプットを作成する手法です。 たとえば、スライドには建物と空と判定された画像が右側にあります。 では、このネットワークで最理想的な「建物と空」という画像は何ですか?と聞くわけです。 すると左側の画像が返ってきます。 これが最もネットワークの判断根拠をよく示す入力になっていて、これを解釈するのがActivation Mximizationです。 ちなみに最初の方にみたGoolgeのあの猫も、この方法で作成されています。
  5. つぎに入力に対する感度を分析する、Sensitivity Analysisという手法ですが、 これは、チーターの絵がスライドにありますが、どこを変えるとチーターでなくなるか、を計算し、 その影響が大きい箇所を左側で白く表示しています。 どこが変わるとまずいかを示して解釈する手法です。
  6. 最後にLRP
  7. さて、深層学習は色んな分野で高い精度を誇ってますが、一方で課題も多く指摘されています。 例えば、予測が点推定であるため、予測の信頼区間がわからないとか、ハイパーパラメータが多く過学習しやすい、学習に大量のデータが必要などが課題として挙げられています。 そこで、これらの課題に対処するため、深層学習をベイズ推論の枠組み、 具体的にはガウス過程を用いて表現するアプローチが提案されました。 このアプローチはまず深層学習をカーネル関数というもので表現します。 これは単層のNNはNeal(ニール)によって、多層の場合はCho(チョウ)によって導出されました。 そして、そのカーネル関数を用いたガウス過程、深層ガウス過程回帰がLeeによってまさに今年提案されました。
  8. さて、この深層ガウス回帰モデルの最大のメリットは、 こちらの図に表現されています。 この図は有名な画像データMNISTを予測した際の、縦軸がMSE(予測精度)、横軸が予測誤差です。 図から予測誤差が大きい、すなわち予測に自信がないと実際に予測も間違えやすいことがわかります。 モデルができないこと、苦手なことを理解できます。 しかも、精度自体も同じ層の深層学習と比べても同程度、ないし若干改善しています。 以上が研究の背景で、本研究ではこの深層ガウス回帰モデルを金融時系列データへ適用するにあたり、 ガウス過程からt過程への拡張を行いました。 よく知られているように金融時系列はガウスよりも裾が厚いため、 t過程へと拡張することで精度改善が見込めるかどうかを検討します。
  9. このカーネル関数Kについて 中間層に無限個のユニットを持つニューラルネットに対応したカーネル関数Kが存在することが証明されました。 これは深層学習と同様に階層構造を持ちます。 具体的な式は、引数を𝑙−1層のカーネルとしたとき、活性化関数𝜙によって異なる関数 𝐹 𝜙 を用いて書けます。 活性化関数がRuleの場合には解析的に書けて、その他の場合は数値的に計算できます。
  10. では、ガウス過程のイメージですが、こちらの図を見てください。 まずはデータ間の関係性、類似度をカーネル関数で計算します。 そして、そのカーネル関数からの出力を共分散行列とするガウス分布を考えます。 それらのサンプルがガウス過程の具体的な出力になります。 カーネル関数で測って似ているデータは同じような値を取ります。 特徴としては、2つあって、 一つが、オレンジ線が平均をプロットしていて、点線が2σをプロットしてますが、 データが多いところでは分散が小さくなり、データが少ないところでは分散が大きくなります。 もう一つは、1次関数などの関数形を具体的に決めてないため、外挿に強く、サンプルの傾向が変わってもある程度対応できます。
  11. では次に、このガウス過程を用いた回帰モデルを考えます。 つまり、ある被説明変数yをガウス過程と独立な正規ノイズの和で表現できるとします。 すると、ガウス分布同士の和になり、またガウス分布になります。 これは正規分布の性質ですね。 ここで、さらに新たなデータZが与えられたとき、その予測値 𝑓 𝐺𝑃 ∗ を推定したいとします。 ガウス過程の定義から、わかっているyと予測値 𝑓 𝐺𝑃 ∗ の分布もスライドのような結合ガウス分布になります。 するとこの結合ガウス分布の条件付き分布、yを知ったときの予測値 𝑓 𝐺𝑃 ∗ の分布を計算することで、 このような形で分布を特定できます。 また分布はガウス分布なので最尤法で容易に計算可能です。
  12. では、t過程は、データをt分布、下に密度関数がありますが、 これで表現するところだけがガウス過程と違います。 カーネルを二つのサンプルの時点の小さいほうとして場合、 ガウス過程とt過程のサンプルをプロットしたのがスライドの図です。 ガウス過程はようはブラウン運動です。 t過程は見てわかる通り外れ値を考慮でき、 ガウス過程とほぼ同じ性質をもつ一方で、自由度のパラメータが増えます。
  13. では、先ほどと同じく、t過程を用いた回帰モデルを考えます。 違いは、自由度のパラメータνが入っており、ノイズがt分布である点です。 そして、t分布は和については、近似的に成り立ちます。 先ほど同様に新たなデータZが与えられたとき、予測値 𝑓 𝑇𝑃 ∗ は、 まず結合分布を考えて、さらにその条件付き分布をとることで、予測できます。
  14. では、具体的にt過程にすることの有効性を確認していきたいと思います。 データはTPX、SP、DAXの月次データを使います。 ベンチマークは当然深層ガウス過程回帰モデルです。 データの期間は2018年6月からの直近12年分を使用し、推定に7割、テストに3割使用します。 全期間の統計量はこちらの表の通りで、やはり正規性を満たさないため、ガウス過程よりもt過程の方がよさそうです。 回帰モデルの説明変数は、適当に各指数の配当利回り、PBR、PER、ROE、12-1カ月のモメンタムとし、 翌月のリターンを説明します。
  15. こちらが結果のまとめです。 左の表は各指数のGPとTPのRMSEとMAEのサマリーです。 その右の表はGPに対してTPがどれだけ精度が改善したかという改善率を示しています。 表から全ての指数においてRMSEとMAEともにTPの方が精度が良いという結果になりました。 また、中段は予測誤差が大きい場合の結果で、下段は予測誤差が小さい場合の結果です。
  16. こちらはSPXの予測誤差と精度の関係をプロットしたものです。 ちょうど最初のスライドに見せたものと同様の図です。
  17. 過去のファイナンスの研究が指摘していることを利用できる。