Submit Search
Upload
Cfa 20190620
•
20 likes
•
6,090 views
Kei Nakagawa
Follow
20190620_日本CFA協会セミナー資料 ファクター投資の新潮流 機械学習を用いた株式ファクター投資
Read less
Read more
Economy & Finance
Report
Share
Report
Share
1 of 72
Recommended
ファクター投資と機械学習
ファクター投資と機械学習
Kei Nakagawa
モデル予見制御に基づくペアトレード戦略
モデル予見制御に基づくペアトレード戦略
Kei Nakagawa
アセットアロケーションの未来
アセットアロケーションの未来
Kei Nakagawa
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント
Kei Nakagawa
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
Kei Nakagawa
金融業界でよく使う統計学
金融業界でよく使う統計学
Nagi Teramo
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
Kei Nakagawa
統計的因果推論勉強会 第1回
統計的因果推論勉強会 第1回
Hikaru GOTO
Recommended
ファクター投資と機械学習
ファクター投資と機械学習
Kei Nakagawa
モデル予見制御に基づくペアトレード戦略
モデル予見制御に基づくペアトレード戦略
Kei Nakagawa
アセットアロケーションの未来
アセットアロケーションの未来
Kei Nakagawa
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント
Kei Nakagawa
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
Kei Nakagawa
金融業界でよく使う統計学
金融業界でよく使う統計学
Nagi Teramo
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
Kei Nakagawa
統計的因果推論勉強会 第1回
統計的因果推論勉強会 第1回
Hikaru GOTO
金融予測アルゴリズムのより良い評価手法について
金融予測アルゴリズムのより良い評価手法について
Kentaro Imajo
リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張
Kei Nakagawa
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
Kei Nakagawa
為替と株の予測の話
為替と株の予測の話
Kentaro Imajo
NUPSC招待講演:アルゴリズムで広がる世界
NUPSC招待講演:アルゴリズムで広がる世界
Kentaro Imajo
PRML11章
PRML11章
Takashi Tamura
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
Shinohara Masahiro
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
Masashi Komori
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
. .
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
Tomoshige Nakamura
状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較
Hiroki Itô
PRML8章
PRML8章
弘毅 露崎
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
Masashi Komori
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
Kei Nakagawa
金融時系列解析入門 AAMAS2021 著者発表会
金融時系列解析入門 AAMAS2021 著者発表会
Katsuya Ito
Framework:「コンサルティング事業の推進案」
Framework:「コンサルティング事業の推進案」
Katsuhito Okada
NGK2022S
NGK2022S
陽平 山口
More Related Content
What's hot
金融予測アルゴリズムのより良い評価手法について
金融予測アルゴリズムのより良い評価手法について
Kentaro Imajo
リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張
Kei Nakagawa
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
Kei Nakagawa
為替と株の予測の話
為替と株の予測の話
Kentaro Imajo
NUPSC招待講演:アルゴリズムで広がる世界
NUPSC招待講演:アルゴリズムで広がる世界
Kentaro Imajo
PRML11章
PRML11章
Takashi Tamura
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
Shinohara Masahiro
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
Masashi Komori
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
. .
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
Tomoshige Nakamura
状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較
Hiroki Itô
PRML8章
PRML8章
弘毅 露崎
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
Masashi Komori
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
Kei Nakagawa
金融時系列解析入門 AAMAS2021 著者発表会
金融時系列解析入門 AAMAS2021 著者発表会
Katsuya Ito
What's hot
(20)
金融予測アルゴリズムのより良い評価手法について
金融予測アルゴリズムのより良い評価手法について
リスクベースポートフォリオの高次モーメントへの拡張
リスクベースポートフォリオの高次モーメントへの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
為替と株の予測の話
為替と株の予測の話
NUPSC招待講演:アルゴリズムで広がる世界
NUPSC招待講演:アルゴリズムで広がる世界
PRML11章
PRML11章
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
関数データ解析の概要とその方法
関数データ解析の概要とその方法
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
状態空間モデルの実行方法と実行環境の比較
状態空間モデルの実行方法と実行環境の比較
PRML8章
PRML8章
ベイズファクターとモデル選択
ベイズファクターとモデル選択
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
金融時系列解析入門 AAMAS2021 著者発表会
金融時系列解析入門 AAMAS2021 著者発表会
Similar to Cfa 20190620
Framework:「コンサルティング事業の推進案」
Framework:「コンサルティング事業の推進案」
Katsuhito Okada
NGK2022S
NGK2022S
陽平 山口
Dynamic+arms+fx100225
Dynamic+arms+fx100225
Yoshiyuki Hongoh
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
cvpaper. challenge
前田塾基礎教養編教材④データサイエンス
前田塾基礎教養編教材④データサイエンス
Keiichi Maeda
見積り入門
見積り入門
namamugi share
2018Rユーザ会用
2018Rユーザ会用
wada, kazumi
Dynamic arms fx090623
Dynamic arms fx090623
Yoshiyuki Hongoh
Dynamic+arms+fx090930
Dynamic+arms+fx090930
Yoshiyuki Hongoh
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
Takanobu Mizuta
0515 mrocセミナー 第二部_公開
0515 mrocセミナー 第二部_公開
株式会社コントロールエー
0416 mrocセミナー 第二部_公開
0416 mrocセミナー 第二部_公開
株式会社コントロールエー
Webマーケターを支援するtableau(タブロー)のケイパビリティ
Webマーケターを支援するtableau(タブロー)のケイパビリティ
Kazuhiro Kida
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
Takanobu Mizuta
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
Makoto Nonaka
Insidesales_FOW_20180907
Insidesales_FOW_20180907
Takeshi Aida
07232012需要予測モデル0.3 5
07232012需要予測モデル0.3 5
Izumi Akiyama
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
Koichi Hamada
さくさく要件定義セミナー in 大阪
さくさく要件定義セミナー in 大阪
Zenji Kanzaki
分類分析 (taxometric analysis)
分類分析 (taxometric analysis)
Yoshitake Takebayashi
Similar to Cfa 20190620
(20)
Framework:「コンサルティング事業の推進案」
Framework:「コンサルティング事業の推進案」
NGK2022S
NGK2022S
Dynamic+arms+fx100225
Dynamic+arms+fx100225
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
前田塾基礎教養編教材④データサイエンス
前田塾基礎教養編教材④データサイエンス
見積り入門
見積り入門
2018Rユーザ会用
2018Rユーザ会用
Dynamic arms fx090623
Dynamic arms fx090623
Dynamic+arms+fx090930
Dynamic+arms+fx090930
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
中央大学経済研究所 経済政策研究部会 公開研究会 (2017/6/14)人工市場を用いた 金融市場の制度・規制の議論
0515 mrocセミナー 第二部_公開
0515 mrocセミナー 第二部_公開
0416 mrocセミナー 第二部_公開
0416 mrocセミナー 第二部_公開
Webマーケターを支援するtableau(タブロー)のケイパビリティ
Webマーケターを支援するtableau(タブロー)のケイパビリティ
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
人工知能が相場操縦を勝手に行う可能性の検討 --遺伝的アルゴリズムが人工市場で学習する場合--
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
「事実にもとづく管理」によるソフトウェア品質の改善 ー ヒンシツ大学 Evening Talk #04
Insidesales_FOW_20180907
Insidesales_FOW_20180907
07232012需要予測モデル0.3 5
07232012需要予測モデル0.3 5
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
[R勉強会][データマイニング] プロセス・リソース・グラフと数理統計解析
さくさく要件定義セミナー in 大阪
さくさく要件定義セミナー in 大阪
分類分析 (taxometric analysis)
分類分析 (taxometric analysis)
More from Kei Nakagawa
Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NET
Kei Nakagawa
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
Kei Nakagawa
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
Kei Nakagawa
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
Kei Nakagawa
IFTA2020 Kei Nakagawa
IFTA2020 Kei Nakagawa
Kei Nakagawa
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
Kei Nakagawa
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
Kei Nakagawa
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
Kei Nakagawa
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
Kei Nakagawa
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock Returns
Kei Nakagawa
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Kei Nakagawa
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
Kei Nakagawa
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
Kei Nakagawa
More from Kei Nakagawa
(13)
Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NET
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
IFTA2020 Kei Nakagawa
IFTA2020 Kei Nakagawa
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock Returns
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
Cfa 20190620
1.
ファクター投資の新潮流 ‐機械学習を用いた株式ファクター投資 日本CFA協会セミナー 2019/6/20
2.
アウトライン ・株価予測の方法論 ・機械学習を用いた株価予測 ・深層学習を用いた実証分析 ・深層学習の課題と解決手法 2
3.
アウトライン ・株価予測の方法論 ・機械学習を用いた株価予測 ・深層学習を用いた実証分析 ・深層学習の課題と解決手法 3
4.
4 方法論 • 時系列予測 • クロスセクション予測 データ •
テクニカル • ファンダメンタルズ • オルタナティブ 手法 • パラメトリック • ノンパラメトリック 効率的市場仮説(EMH) Weak:テクニカル、Semi Strong:ファンダメンタルズ、Strong:全てのデータ に基づく分析によって超過収益は獲得できない。Fama (1970) 株価予測手法のサマリー
5.
株価予測のための方法論 投資ユニバース 時 系 列 予 測 クロスセクション予測 銘柄A 銘柄B ・・・ 今月 前月 ・ ・ ・ ・ 過去(既知)のデータ ✔
過去データからの予測で最も高い(プラス) リターンの銘柄を買う。 最も簡単な例:AR(1)モデル 𝑟t:時点tのリターン、 𝑥 𝑡:リターン以外のデータ 𝑟t = 𝑓(𝑟𝑡−1, … , 𝑥 𝑡−1, … ) 𝑟t = 𝛼𝑟𝑡−1 + 𝑐 + 𝜀𝑡 ✔ いかに高精度の𝑓を見つけ出すか クロスセクション予測時系列予測 ✔ いかに良質な魅力度(組み合わせ)を見つけ出すか 最も簡単な例:分位ポートフォリオ 割安割高 売り 買い 最も魅力的な分位を買い、逆を売り。 第1分位第5分位 ✔ ある基準でユニバース内で比較して、 相対的に魅力的な銘柄を買う。 先月末時点のPBRでユニバースをソートする。 5
6.
“… and the
cross-section of expected returns“ Harvey et,al. [2016] Review of Financial Studies ✔ ある基準=ファクターと呼ばれ、2012年までに少なくとも316のファクターが試され、 さらにそれらのファクターの大部分は過去10年のものであることが報告されている。 クロスセクション予測の基準としてのファクター ✔ パラメトリック(回帰分析)の枠組みでの検証が多数。 6
7.
ファイナンス、会計、経済の専門誌に掲載された 79 の論文からクロスセクショナルな株式リターン を予測する。 97
の予測変数の、次の期間における予測力を比較する。 1. 元となる論文のサンプル期間(In-Sample) 2. 元となる論文のサンプル期間後で、論文出版前の期間(Out of-Sample) 3. 論文出版後の期間(Post-Publication) “Does academic research destroy stock return predictability?” McLean and Pontiff [2016] J of Finance 97の各予測変数に対して、元の論文で高いリターンであった上位 20%ロングと下位 20%ショートに基づく ロング/ショートポートフォリオを構築。 その結果、ロング/ショートポートフォリオのリターンは、2.のアウトオブサンプルでは 26%減少し、3.の論文出版後には 58%低下する。 つまり、両者の差の約 32%が出版効果の上限である。そのためリターンの予測可能性は完全に消滅するという仮説は 棄却されるものの、出版後の予測可能性は変わらないという仮説も棄却された。 クロスセクション予測の基準としてのファクター 7
8.
アウトライン ・株価予測の方法論 ・機械学習を用いた株価予測 ・深層学習を用いた実証分析 ・深層学習の課題と解決手法 8
9.
予測対象 相対魅力度 将来リターンを予測する様々なファクターが多数報告されている (2012年時点で314!
Harvey,et al.[2014]) クオンツ運用では一般に様々なファクターを合成した相対魅力度に基づいて投資する。 株式マルチファクター(クオンツ)運用戦略 ⇒ 何らかの基準でファクターを絞った後、単純な合成比率(線形モデル)で将来リターンを算出。 ファクター群 ● ● ● ROE 1か月リターン 機械学習 ファクターを絞らず、大量のファクターから機械学習によりファクター群の非線形な関係をとらえたい。 機械学習とクロスセクション予測 9
10.
ファクター群 ファクター抽出 相対魅力度算出 従来の株式マルチファクター運用 10
11.
ROE 1か月リターン ● ● ● ファクター群 ファクター抽出 相対魅力度算出 従来の株式マルチファクター運用 11
12.
ROE 1か月リターン ● ● ● 割安系 成長系 クオリティ系 テクニカル系 ファクター群 ファクター抽出 相対魅力度算出 従来の株式マルチファクター運用 12
13.
ROE 1か月リターン ● ● ● 割安系 成長系 クオリティ系 テクニカル系 人間の判断による ファクター抽出(分類) ファクター群 ファクター抽出 相対魅力度算出 従来の株式マルチファクター運用 13
14.
ROE 1か月リターン ● ● ● 割安系 成長系 クオリティ系 テクニカル系 相対魅力度 人間の判断による ファクター抽出(分類) 線形予測(回帰分析) ファクター群 ファクター抽出 相対魅力度算出
買いも売りも対等に評価。 ファクターを単調に評価。 従来の株式マルチファクター運用 14
15.
買いも売りも対等に評価。 ファクターを単調に評価。 ROE 1か月リターン ● ● ● 割安系 成長系 クオリティ系 テクニカル系 相対魅力度 人間の判断による ファクター抽出(分類) 線形予測(回帰分析) ファクター群
ファクター抽出 相対魅力度算出 ファクターを絞らず、大量のファクターから機械学習 によりファクター群の非線形な関係をとらえたい。 深層学習の適用 従来の株式マルチファクター運用 15
16.
ファクター群 ファクター抽出 相対魅力度算出 深層学習を用いた株式マルチファクター運用 16
17.
ROE 1か月リターン ● ● ● ファクター群 ファクター抽出 相対魅力度算出 深層学習を用いた株式マルチファクター運用 17
18.
ROE 1か月リターン ・ ・ ・ ・ ・ ・ ● ● ● ・ ・ ・ ・ ・ ・ ・ ・ ・ ファクター群 ファクター抽出 相対魅力度算出 深層学習を用いた株式マルチファクター運用 18
19.
ROE 1か月リターン ・ ・ ・ ・ ・ ・ ● ● ● ・ ・ ・ ・ ・ ・ ・ ・ ・ 深層学習で有効なファクターを段階的に抽出 (人間の判断を入れない) ファクター群 ファクター抽出 相対魅力度算出 深層学習を用いた株式マルチファクター運用 19
20.
相対魅力度 ROE 1か月リターン ・ ・ ・ ・ ・ ・ ● ● ● ・ ・ ・ ・ ・ ・ ・ ・ ・ 深層学習で有効なファクターを段階的に抽出 (人間の判断を入れない) 非線形予測(深層学習) ファクター群 ファクター抽出 相対魅力度算出
買いも売りを別評価。 ファクターを非単調に評価。 深層学習を用いた株式マルチファクター運用 20
21.
アウトライン ・株価予測の方法論 ・機械学習を用いた株価予測 ・深層学習を用いた実証分析 ・深層学習の課題と解決手法 21
22.
「Deep Factor Model」 Kei
Nakagawa, Takumi Uchida and Tomohisa Aoshima, 3rd Workshop on MIDAS@ECML-PKDD 2018 ([preprint] arXiv:1810.01278) Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証 80個のファクターを用いて、1カ月先の将来リターンの順位による魅力度を予測 投資対象ユニバース:TOPIX構成銘柄(2006年-2016年、月次) 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした 実証分析 その1 22
23.
実務的によく使う5つのファクターと その特徴量(ディスクリプター)を16個使用。 16個の特徴量の四半期ごとの過去5時点、 16
× 5 = 80個の特徴量を使用。 No ディスクリプター(特徴量) ファクター 1 過去60カ月ボラティリティ リスク 2 市場ベータ リスク 3 歪度 リスク 4 ROE クオリティ 5 ROA クオリティ 6 アクルーアルズ クオリティ 7 負債比率 クオリティ 8 過去60カ月リターン モメンタム 9 過去12カ月-直近1カ月リターン モメンタム 10 過去1カ月リターン モメンタム 11 PSR バリュー 12 PER バリュー 13 PBR バリュー 14 PCFR バリュー 15 時価総額 サイズ 16 ILLIQ サイズ 深層学習を用いた株式マルチファクター運用の実証分析 23
24.
モデル 概要 深層学習 隠れ層が(80-50-10),(80-80-50-50-10-10)の全結合のネットワーク 深層学習
活性化関数はランプ関数(ReLU)、Tensorflowを使用 線形モデル “sklearn.linear_model.LinearRegression” サポートベクター回帰モデル “sklearn.svm.SVR” ランダムフォレスト “sklearn.ensemble.RandomForestRegressor” Tensorflowおよびsklearnを用いて実装。 深層学習の有効性を検証するため、線形モデル、非線形モデルをベンチマークとし検証。 各モデルの相対魅力度の5分位 - 1分位ポートフォリオの収益性を評価。 パラメータは言及のないものはデフォルト値を使用 深層学習を用いた株式マルチファクター運用の実証分析 24
25.
ディスクリプター 1,2,… 80 2006年3月 TOPIX 構成銘柄 パーセンタイル ランキング (ディスクリプター毎) パーセンタイル ランキング 2006年2月 TOPIX 構成銘柄 パーセンタイル ランキング (ディスクリプター毎) パーセンタイル ランキング 1996年2月 TOPIX 構成銘柄 パーセンタイル ランキング (ディスクリプター毎) パーセンタイル ランキング 1カ月先リターン銘柄時点 … 訓練データ(1セット) ・
特徴量:80個のディスクリプター ・ 教師データ:1か月先リターン 過去120か月分の訓練データを用いて学習。 各時点において、データをパーセンタイル化 (相対魅力度のための前処理) 予測は2006年~2016年で行う。 例)2006年4月の訓練データセット 特徴量 教師データ 訓練データ セット:1 訓練データ セット:2 ・ ・ ・ 訓練データ セット:120 深層学習を用いた株式マルチファクター運用の実証分析 25
26.
< 平均絶対リターン> ※年率換算
絶対リターン ・ 他の非線形モデルに対して深層学習の結果は良好。 ・ 線形モデルも悪くない。ただし、非線形モデルのパラメータはデフォルト値。 深層学習を用いた株式マルチファクター運用の実証分析 26
27.
< R/R >
※年率換算 R/R(リスクリターン) ・ R/Rにおいても、絶対リターンと同様の傾向がみられる。 ・ 線形モデルも悪くない。ただし、非線形モデルのパラメータはデフォルト値。 ⇒下手な非線形モデルを使うなら線形でも良い。 深層学習を用いた株式マルチファクター運用の実証分析 27
28.
「深層学習を用いたマルチファクター運用の実証分析」 阿部真也, 中川慧 第21回金融情報学研究会 (https://sigfin.org/021-03/)
Deep Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証 33個のファクターを用いて、将来5営業日先の将来リターンの順位による魅力度を予測 投資対象ユニバース:TOPIX500構成銘柄(2013年-2017年、日次) 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした 深層学習を用いた株式マルチファクター運用の実証分析 28
29.
No. 特徴量 (ディスクリプター)
No. 特徴量 (ディスクリプター) No. 特徴量 (ディスクリプター) 1 当日リターン 12 過去20日/過去60日の売買金額 23 CF/P 2 対2日前リターン 13 営業利益予想の変化(対5日前) 24 ROE 3 対3日前リターン 14 営業利益予想の変化(対10日前) 25 ROA 4 対5日前リターン 15 営業利益予想の変化(対20日前) 26 ROIC 5 対10日前リターン 16 目標株価の変化(対5日前) 27 アクルーアルズ 6 対20日前リターン 17 目標株価の変化(対10日前) 28 総資産回転率 7 対40日前リターン 18 目標株価の変化(対20日前) 29 流動比率 8 対60日前リターン 19 B/P 30 自己資本比率 9 過去60日の平均売買金額 20 E/P 31 総資産成長率 10 過去5日/過去60日の売買金額 21 配当利回り 32 CAPEX成長率 11 過去10日/過去60日の売買金額 22 S/P 33 Investment to Asset 実務でよく使用すると思われる33個のディスクリプターを使用 TOPIX500構成銘柄に対し、各時点(日次系列)で計算し、使用。 ※ただし、No.19以降は毎月末に値が変わる月次データ 深層学習を用いた株式マルチファクター運用の実証分析 29
30.
・・・ ・・・ ・・・ 場中
場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・ : : ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 特徴量 教師データ 特徴量 教師データ ポートフォリオの20%保有 (学習あり) t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4 時点 t-7 t-6 t-5 t-4 ・・・ 訓練データ 1000セット [train1] : [train1000] 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略 深層学習を用いた株式マルチファクター運用の実証分析 30
31.
・・・ ・・・ ・・・ 場中
場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・ : : : : 特徴量 教師データ 特徴量 教師データ ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 特徴量 教師データ ポートフォリオの20%保有 (学習あり) 特徴量 教師データ ポートフォリオの20%保有 (学習あり) t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4 時点 t-7 t-6 t-5 t-4 ・・・ 訓練データ 1000セット 訓練データ 1000セット [train1] : [train1000] [train1] : リバランス 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略 深層学習を用いた株式マルチファクター運用の実証分析 31
32.
・・・ ・・・ ・・・ 場中
場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・ : : : : 特徴量 教師データ ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 特徴量 教師データ ポートフォリオの20%保有 (学習あり) 特徴量 教師データ ポートフォリオの20%保有 (学習あり) 特徴量 教師データ t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4 時点 t-7 t-6 t-5 t-4 ・・・ 訓練データ 1000セット 訓練データ 1000セット [train1] : [train1000] [train1] : リバランス ・ ・ ・ 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略 深層学習を用いた株式マルチファクター運用の実証分析 32
33.
・・・ ・・・ ・・・ 場中
場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 場中 ・・・ : : : : 特徴量 教師データ ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 ポートフォリオの20%保有 特徴量 教師データ ポートフォリオの20%保有 (学習あり) 特徴量 教師データ ポートフォリオの20%保有 (学習あり) 特徴量 教師データ t+11t+5 t+6 t+7 t+8 t+9 t+10t-1 t t+1 t+2 t+3 t+4 時点 t-7 t-6 t-5 t-4 ・・・ 訓練データ 1000セット 訓練データ 1000セット [train1] : [train1000] [train1] : リバランス ・ ・ ・ 検証期間:2013年~2017年 ※寄り基準 5本の合成ポートフォリオの日次リターンを計測 日々、予測スコアを計算 ⇒ 毎営業日ポートフォリオの20%を入れ替えていく戦略 深層学習を用いた株式マルチファクター運用の実証分析 33
34.
モデル 隠れ層(Dropout) エポック数 DNN_1 500
– 200 – 100 – 50 – 10 (50% – 40% – 30% – 20% – 10%) 20 DNN_2 500 – 200 – 100 – 50 – 10 (50% – 40% – 30% – 20% – 10%) 30 DNN_3 200 – 200 – 100 – 100 – 50 (50% – 50% – 30% –30% – 10%) 20 DNN_4 200 – 200 – 100 – 100 – 50 (50% – 50% – 30% – 30% – 10%) 30 DNN_5 300 – 300 – 150 – 150 – 50 (50% – 50% – 30% – 30% – 10%) 20 DNN_6 300 – 300 – 150 – 150 – 50 (50% – 50% – 30% – 30% – 10%) 30 ・ 深層学習の構造 全結合型のフィードフォワード 6パターン (エポック数が違う3パターン) 活性化関数:ReLU TensorFlow 深層学習を用いた株式マルチファクター運用の実証分析 34
35.
・ ランダムフォレスト scikit-learnの以下のクラスを使用 「sklearn.ensemble.RandomForestRegressor」 -特徴量の数:max_features -木の数:n_estimators -深さ:max
depth モデル 特徴量の数 木の数 深さ RF_1 11 1000 3 RF_2 11 1000 5 RF_3 11 1000 7 ・ リッジ回帰 scikit-learnの以下のクラスを使用 「sklearn.linear model.Ridge」 -正則化パラメータ:alpha モデル 正則化パラメータ RR_1 0.1 RR_2 1.0 RR_3 10.0 深層学習を用いた株式マルチファクター運用の実証分析 35
36.
< 平均絶対リターン> ※年率換算
絶対リターン ・ DNNはパターンによる水準の違いが、相対的に大きい。 エポック数の違い(20 or 30)では、総じて20回が良い。 ・ RRのパターンが良いものの、DNNで上回っているパターン(DNN_3, DNN_5)がある。 深層学習を用いた株式マルチファクター運用の実証分析 36
37.
R/R(リスクリターン) ・ 総じて、DNNのパターンが良い。 ⇒
DNNは買い、売りの両方で収益獲得の機会がある ・ R/Rにおいても、DNNのエポック数の違い(20 or 30)では、総じて20回が良い。 ⇒ (本研究でのパターンにおいては、) 30回は過学習。 < R/R> 深層学習を用いた株式マルチファクター運用の実証分析 37
38.
「グローバル株式市場における深層学習を用いたマルチファクター運用の実証分析」 阿部真也, 中川慧 第33回人工知能学会全国大会 https://www.jstage.jst.go.jp/article/pjsai/JSAI2019/0/JSAI2019_4Rin135/_article/-char/ja/ Deep
Learningを用いたマルチファクターモデルによる相対魅力度の有効性の検証 20個のファクターを用いて、1カ月先の将来リターンの順位による魅力度を予測 投資対象ユニバース: 北米:MSCI Americas ヨーロッパ・中東:MSCI Europe & Middle East アジアパシフィック:MSCI Pacific (2005年-2017年、月次) 深層学習は線形のファクターモデル、他の機械学習の手法をアウトパフォームした 実証分析 その3 38
39.
No. 特徴量 (ファクター)
No. 特徴量 (ファクター) 1 株価純資産倍率 11 流動比率 2 株価収益率 12 自己資本比率 3 配当利回り 13 総資産回転率 4 株価売上高倍率 14 CAPEX成長率 5 株価キャッシュフロー倍率 15 EPS リビジョン (対1か月) 6 自己資本利益率 16 EPS リビジョン (対3か月) 7 総資本利益率 17 1か月株価モメンタム 8 投下資本利益率 18 12か月株価モメンタム 9 アクルーアルズ 19 ボラティリティ 10 総資産成長率 20 歪度 ※No.1,2,4,5:逆数を使用. No.18:直近1か月除く 深層学習を用いた株式マルチファクター運用の実証分析 グローバルで有効と思われる20個のディスクリプターを使用 各国のMSCI指数構成銘柄に対し、各時点(月次系列)で計算し、使用。 39
40.
予測に用いたモデル 深層学習(DNN) タイプ 隠れ層
ドロップアウト FFNN 150 – 150 – 100 – 100 – 50 – 50 50% ランダムフォレスト(RF) 特徴量数 木の数 深さ 20 1000 5 リッジ回帰(RR) 正則化係数 1.0 深層学習を用いた株式マルチファクター運用の実証分析 40
41.
※評価期間:2005年1月~2017年12月 ポートフォリオは等金額で構築 深層学習を用いた株式マルチファクター運用の実証分析 R/R(リスクリターン) ・ 深層学習のパフォーマンスが良好 (傾向として、Return水準:高
/ Risk水準:低) ・ 市場効率性が高い地域程、収益獲得の機会が低下 絶対リターン ・ 地域ごとにバラつきがある ・ 市場効率性が高い地域程、収益獲得の機会が低下 41
42.
アウトライン ・株価予測の方法論 ・機械学習を用いた株価予測 ・深層学習を用いた実証分析 ・深層学習の課題と解決手法 42
43.
説明 (Explanation)・解釈可能性 (Interpretablity): 予測結果の根拠や、予測モデルの予測過程を人間に説明する必要がある。 データ量/計算量(Computation
cost): 大量のデータやGPUを多用する必要がある。 安全性 (Security): 訓練データに対する悪意のある介入や改竄などで、 予測モデルが改変されないようにする必要がある。 プライバシ (Privacy): 個人情報を秘匿と、データ分析とを両立する必要がある。 公平性 (Fairness): 予測モデルが、社会的な公平性を保つようにする必要がある。 深層学習の課題 43
44.
・ 透明性の原則: 開発者は、AI システムの入出力の検証可能性および判断結果の説明可能性に留意する。 ・
アカウンタビリティの原則: 開発者は、利用者を含むステークホルダに対し、アカウンタビリティを果たすよう努める。 総務省は AI の利用の増進とそのリスクの抑制のために「AI 開発ガイドライン案」を2017年に策定。 ここには以下の原則が盛り込まれている。 EU においても、同様の内容が General Data Protection Regulation(GDPR)として 2018年5月より施行。(特に GDPR-22 が上記のガイドラインに対応) AIの解釈性、説明責任 44
45.
忖度せよ 予測結果 深層学習は様々な分野で、高い精度をあげているが、判断根拠がよくわからないと言われている。 深層学習(も)は、悪意ある攻撃によって誤認させることができる。 “Intriguing
properties of neural networks“ ICLR 2015 深層学習の判断根拠を理解することで、 こうした攻撃を受けた際に気づける可能性がある。 テナガザルパンダ ノイズ 深層学習の解釈性 45
46.
モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。 (1) ネットワークの出力を最大化する入力を作成する (Activation
Maximization) (2) 入力に対する感度を分析する (Sensitivity Analysis) (3) 出力から入力を逆にたどり判断の根拠を提示 (Layer-wise Relevance Propagation;LRP) 深層学習の解釈手法 46
47.
モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。 (1) ネットワークの出力を最大化する入力を作成する (Activation
Maximization) https://distill.pub/2017/feature-visualization/ 建物と空最も「建物と空」と判定されやすい画像 ネットワークの判断根拠をよく示す入力 →そのネットワークの最も理想的なインプット(代表例)は何か? Googleの猫、Deep Dream 深層学習の解釈手法 47
48.
モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。 (2) 入力に対する感度を分析する (Sensitivity
Analysis) チーターどこを変えるとチーターでなくなるか? https://pair-code.github.io/saliency/感度分析 →入力がちょっと変わったときに最も出力が変化する入力(感応度が高い)はどれか? 深層学習の解釈手法 48
49.
モデルの精度を落とさず、深層学習をある程度説明する手法として次のようなものがある。 (3) 出力から入力を逆にたどり判断の根拠を提示 (Layer-wise
Relevance Propagation;LRP) 鳥 判 断 結 果 の 寄 与 度 予測の要因分解 ファクターモデルの観点から、 寄与度(要因分解)が解ることが最も嬉しい。 →その出力と判断したのは入力のどこに着目(根拠)したか? http://www.heatmapping.org/slides/2018_CVPR_3.pdf 深層学習の解釈手法 49
50.
LRPとは何か? 50 50% 30% 20% どのノードをどれだけ信用(Relevance)したか = 100% これは学習済のモデルからわかる 階層ごとに貢献を特定していく。
貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
51.
LRPとは何か? 51 50% = 100% これは学習済のモデルからわかる 30% 50% 20% どのノードをどれだけ信用(Relevance)したか 階層ごとに貢献を特定していく。
貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
52.
LRPとは何か? 52 50% これは学習済のモデルからわかる 15% 25% 10% どのノードをどれだけ信用(Relevance)したか 階層ごとに貢献を特定していく。 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
53.
LRPとは何か? 53 これは学習済のモデルからわかる 20% 30% 20% 30% どのノードをどれだけ信用(Relevance)したか 階層ごとに貢献を特定していく。 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
54.
LRPとは何か? 54 これは学習済のモデルからわかる 30% 35% 30% 20% = 100% どのノードをどれだけ信用(Relevance)したか 階層ごとに貢献を特定していく。
貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
55.
LRPとは何か? 55 これは学習済のモデルからわかる 30% 35% 30% 20% 40% 40% = 100% どのノードをどれだけ信用(Relevance)したか 階層ごとに貢献を特定していく。 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
56.
LRPとは何か? 56 これは学習済のモデルからわかる 20% 40% 40% = 100% 20% 30% 40% 10% 判 断 結 果 の 寄 与 度 予 測 の 要 因 分 解 = どのノードをどれだけ信用(Relevance)したか 階層ごとに貢献を特定していく。 貢献の総和は各層間で等しく、伝搬を通じてその配分が変わっているに過ぎないと仮定する。
57.
隠れ層 [20, 10,
5]の深層学習で学習。 LRPが本当に出力の根拠を示すのか簡単な非線形問題をもとに検証。 教師データと学習データの間の関係は以下の通り。 入力層 出力層 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ 隠れ層 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ 3,000個 𝑦 = 10𝑥1 + 5𝑥2 − 5𝑥3 𝑥4 𝑥5 教師データ:𝑦 学習データ:𝑥1~𝑥10(𝑥6~𝑥10はノイズ)を[0,1]の一様乱数から3,000個生成。 LRPの回帰問題での妥当性の検証 57
58.
変数 X1 X2
X3 X4 X5 LRPの平均 7.47 3.98 -1.78 -1.68 -1.89 寄与度 39.52% 21.06% -9.42% -8.89% -10.00% 変数 X6 X7 X8 X9 X10 LRPの平均 0.06 -0.66 0.71 0.59 0.08 寄与度 0.32% -3.49% 3.76% 3.12% 0.42% 意味のある変数の寄与が大きい。また𝑥2は𝑥1のおよそ1/2、 𝑥3 + 𝑥4 + 𝑥5はおよそ𝑥2とインパクトも近似。 LRPが本当に出力の根拠を示すのか簡単な非線形問題をもとに検証。 教師データと学習データの間の関係は以下の通り。 𝑦 = 10𝑥1 + 5𝑥2 − 5𝑥3 𝑥4 𝑥5 学習後のネットワークと3,000個の教師データからLRPで入力の平均と寄与度を計算。 教師データ:𝑦 学習データ:𝑥1~𝑥10(𝑥6~𝑥10はノイズ)を[0,1]の一様乱数から3,000個生成。 LRPの回帰問題での妥当性の検証 58
59.
相対魅力度 ROE 1か月リターン ・ ・ ・ ・ ・ ・ ● ● ● ・ ・ ・ ・ ・ ・ ・ ・ ・ 深層学習で有効なファクターを段階的に抽出 (人間の判断を入れない) 非線形予測 ファクター群 ファクター抽出 相対魅力度 LRP要因分解
相対魅力度 マルチファクター・モデルを深層学習によって非線形化。 リターンモデル リスクモデル Deep Factor Model 59
60.
要因分解例(LRP) Risk Quality
Momentum Value Size Spearman 0.14 0.22 0.24 0.08 0.14 Kendall 0.10 0.15 0.17 0.06 0.10 0% 5% 10% 15% 20% 25% 30% 35% Risk Quality MomentumValue Size 最も高いリターン 第1分位 要因分解例(順位相関) Deep Factor Model 60
61.
深層学習のベイズ推論化 ✔ 隠れ層が多層の場合のニューラルネットワーク(深層学習)に対応するカーネル関数の導出 (Cho and
Saul [2009]) ✔ 深層学習カーネルを用いた深層ガウス過程回帰モデルの提案(Lee et, al.[2018]) ・点推定である(信頼区間などの確率情報がない) ・ハイパーパラメータが多く、過学習しやすい ・収束の確認が難しく、モデル比較ができない 深層学習は様々な分野/タスクで非常に高い性能を挙げているが、下記をはじめ問題点も多くある。 深層学習のベイズ推論化、ガウス過程で表現するアプローチが注目されている。 ✔ 隠れ層が単層の場合のニューラルネットワークに対応するカーネル関数の導出(Neal [1994]) ・学習に大量のデータが必要 61
62.
62 モデルができないこと、苦手なことを理解できる。 以上を踏まえて、一般に裾の厚い金融時系列データへの適用のため、 深層ガウス過程回帰から、深層t過程回帰への拡張と有効性の評価を行う。 予測に自信がない(=予測誤差が大きい)と 実際に予測も間違えやすい 深層ガウス過程回帰モデルの画像データ予測に対する予測誤差(横軸)と予測精度(縦軸) しかも精度は深層学習と同程度。 Lee et, al.[2018]より抜粋 深層学習のベイズ推論化
63.
深層学習カーネル 𝐾 𝑙 𝑥, 𝑥′ =
𝜎 𝑏 2 + 𝜎 𝑤 2 𝐹 𝜙(𝐾 𝑙−1 𝑥, 𝑥 , 𝐾 𝑙−1 𝑥, 𝑥′ , 𝐾 𝑙−1 𝑥′ , 𝑥′ ) 引数を𝑙 − 1層のカーネルとしたとき、活性化関数𝜙によって異なる関数𝐹 𝜙を用いて表現できる。 𝐾 𝑙 𝑥, 𝑥′ = 𝜎 𝑏 2 + 𝜎 𝑤 2 2 𝐾𝑙−1 𝑥, 𝑥 𝐾𝑙−1 𝑥′, 𝑥′ (sin 𝜃 𝑙−1 + 𝜋 − 𝜃 𝑙−1 cos 𝜃 𝑙−1) 𝜃 𝑙−1 = 𝐾 𝑙−1 𝑥, 𝑥′ 𝐾 𝑙−1 𝑥, 𝑥 𝐾 𝑙−1 𝑥′, 𝑥′ 𝐹 𝜙は活性化関数がReLUの場合には以下のように解析的に書け、 その他の場合には数値的に計算できる。 中間層に無限個ユニット数を持つ非線形関数(NN)に対応したカーネル関数が存 在。単層の場合; Neal [1994] 多層の場合; Cho and Saul [2009] 63
64.
ガウス過程 カーネル 関数 𝑥1 𝑥2 𝑥1 𝑥2 𝑥1𝑥2 ガウス過程のイメージ(サンプル) … … … 𝐾 【1】カーネル関数によって類似度を計算 【2】カーネル関数を共分散行列とする ガウス分布から𝑓のサンプルを得る 「近い」データは似たような値をとる。 𝜇 2 × 標 準 偏 差 データ点が多いほど、予測誤差は小さく、 データ点が少ないほど、予測誤差は大きい。 途中でサンプルの傾向が変わった場合に対応可能 外挿に強い 64
65.
ガウス過程回帰モデル 𝑦𝑖 = 𝑓𝐺𝑃
𝒙𝑖 + 𝜀𝑖 𝑓𝐺𝑃~𝑁(𝝁(𝑿), 𝑲(𝑥, 𝑥0)) 𝑓𝐺𝑃 + 𝜀𝑖~𝑁(𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰) 𝑦 𝑓𝐺𝑃 ∗ ~𝑁 𝜇(𝑿) 𝜇(𝒁) , 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 𝐾 𝒁, 𝑿 𝑇 𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁 𝑝 𝑓𝐺𝑃 ∗ 𝑦 = 𝑝 𝑓𝐺𝑃 ∗ , 𝑦 𝑝 𝑦 ~𝑁( 𝜇, Σ) 𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝑦 − 𝜇 𝒁 + 𝜇(𝒁) Σ = 𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿 𝜀𝑖~𝑁(0, 𝜎2) ガウス過程を使った回帰モデルを考える。 ガウス分布の畳込みはまたガウス分布であるので、 ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚 𝑇が与えられたとき、その予測値𝑓𝐺𝑃 ∗ = 𝑓𝐺𝑃 ∗ (𝒛1), … , 𝑓𝐺𝑃 ∗ (𝒛 𝑚) 𝑇と 𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びガウス過程となり、 𝒚の下での予測値𝑓𝐺𝑃 ∗ の分布は、条件付き分布を計算することで、 分布があるので最尤法で推定可能 , 65
66.
t過程 メリット: 外れ値を考慮できる。 ガウス過程とほぼ同じ性質がある デメリット: 自由度のパラメータが増える。 t過程 ガウス過程 𝐾(𝑠, 𝑡)
= min(s, t) ;Wiener processの平均0のガウス過程とt過程(自由度5)を100サンプル生成 𝑇 𝜈, 𝝁, 𝑲 = Γ 𝜈 + 𝑛 2 𝜈 − 2 𝜋 𝑛 2Γ 𝜈 2 det 𝑲 − 1 2 × 1 + 𝒚 − 𝝁 𝑇 𝑲−1 𝒚 − 𝝁 𝜈 − 2 − 𝜈+𝑛 2 t 過程とガウス過程の違い 指数関数の定義から 𝜈 → ∞でガウス分布へ収束。 ・・・𝑛 個のデータを 𝑛 次元t分布として表現 66
67.
t過程回帰モデル 𝑦𝑖 = 𝑓𝑇𝑃
𝒙𝑖 + 𝜀𝑖 𝑓𝑇𝑃~𝑇(𝜈, 𝝁(𝑿), 𝑲(𝑥, 𝑥0)) 𝑓𝑇𝑃 + 𝜀𝑖 ≈ 𝑇(𝜈, 𝝁 𝑿 , 𝑲 𝑥, 𝑥0 + 𝜎2 𝑰) 𝑦 𝑓𝑇𝑃 ∗ ~𝑇 𝜈, 𝜇(𝑿) 𝜇(𝒁) , 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 𝐾 𝒁, 𝑿 𝑇 𝐾 𝒁, 𝑿 𝐾 𝒁, 𝒁 𝑝 𝑓𝑇𝑃 ∗ 𝑦 = 𝑝 𝑓𝑇𝑃 ∗ , 𝑦 𝑝 𝑦 ~𝑇( 𝜈, 𝜇, Σ) 𝜇 = 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝒚 − 𝜇 𝒁 + 𝜇(𝒁) Σ = 𝜈 − 𝛽 − 2 𝜈 − 𝑛 − 2 𝐾 𝒁, 𝒁 𝑇 − 𝐾 𝒁, 𝑿 𝑇 𝐾 𝑿, 𝑿 + 𝜎2 𝑰 −1 𝐾 𝒁, 𝑿 𝜀𝑖~𝑇(𝜈, 0, 𝜎2) t過程を使った回帰モデルを考える。 t分布の畳込みはまたt分布にならないが、近似的に、 ここで、新しい観測値 𝒁 = 𝒛1, … , 𝒛 𝑚 𝑇が与えられたとき、その予測値𝑓𝑇𝑃 ∗ = 𝑓𝑇𝑃 ∗ (𝒛1), … , 𝑓𝑇𝑃 ∗ (𝒛 𝑚) 𝑇と 𝒚の同時分布は、𝑿と𝒁のカーネルを考えることで、再びt過程となり、 𝒚の下での予測値𝑓𝑇𝑃 ∗ の分布は、条件付き分布を計算することで、(論文参照) 𝜈 = 𝜈 + 𝑚 𝛽 = 𝒚 − 𝜇 𝑿 𝑇 𝐾 𝑿, 𝑿 −𝟏 𝒚 − 𝜇 𝑿 分布があるので最尤法で推定可能 , 67
68.
実証分析 各国の株式指数(TPX,S&P,DAX)の月次データを用いて、深層ガウス過程回帰モデルをベンチマークに、 深層t過程回帰モデルの有効性を確認する。 TPX SPX DAX 年率リターン[%]
2.37 7.38 8.15 年率リスク[%] 18.02 14.24 18.32 歪度 -0.47 -0.82 -0.56 尖度 5.22 6.2 5.69 Jarque-Beta統計量 12.94 41.75 23.67 p-値[%] 0.155 0 0.0007 ・データは2018/6末から直近12年分 (144 サンプル) を使用し、うち推定に7割、テストに3割使用する。 全期間における各指数の統計量 各指数ともに正規性を満たさないため、t過程をあてはめる余地がある。 ・各指数の配当利回り、PBR、PER、ROE、12-1 か月モメンタムを説明変数とし、 翌月のリターンを非説明変数とする。 68
69.
実証分析 指数 Total GP TP
GP TP GP TP RMSE 0.3511 0.2158 1.0357 0.5076 0.2934 0.1134 MAE 0.2914 0.1622 0.891 0.4282 0.2489 0.0808 予測誤差(大) GP TP GP TP GP TP RMSE 0.3561 0.2623 1.3646 0.6856 0.3285 0.139 MAE 0.2937 0.2079 1.3431 0.6674 0.2759 0.1014 予測誤差(小) GP TP GP TP GP TP RMSE 0.3458 0.1524 0.565 0.2343 0.2553 0.08 MAE 0.2892 0.1142 0.4594 0.1999 0.2231 0.0602 TPX SPX DAX GPはデータの非正規性により、異常値に振らされた予測を行うため、 TPよりも精度が悪いのでは。 精度の分析(1層) 指数 TPX SPX DAX Total RMSE 38.5% 51.0% 61.3% MAE 44.3% 51.9% 67.5% 予測誤差(大) RMSE 26.3% 49.8% 57.7% MAE 29.2% 50.3% 63.2% 予測誤差(小) RMSE 55.9% 58.5% 68.7% MAE 60.5% 56.5% 73.0% 改善率 改善率 改善率 69
70.
実証分析 SPXの予測誤差(Std)とRMSEとの関係(赤丸:GP、青丸:TP) ・先行研究同様に、金融データにおいても 予測誤差が大きいほど、 予測精度が悪くなっていることがわかる。 ・他の指数でも同様の傾向。 70
71.
実証分析 Total 1層 2層
3層 4層 RMSE 0.3511 0.4114 0.3790 0.3893 MAE 0.2914 0.3558 0.3267 0.3354 予測誤差(大) 1層 2層 3層 4層 RMSE 0.3561 0.4218 0.3559 0.3867 MAE 0.2937 0.3621 0.3008 0.3311 予測誤差(小) 1層 2層 3層 4層 RMSE 0.3458 0.4013 0.3997 0.3918 MAE 0.2892 0.3497 0.3514 0.3396 GP Total 1層 2層 3層 4層 RMSE 0.2158 0.2222 0.1325 0.1385 MAE 0.1622 0.1651 0.1004 0.1104 予測誤差(大) 1層 2層 3層 4層 RMSE 0.2623 0.1619 0.1162 0.1432 MAE 0.2079 0.1238 0.0940 0.1171 予測誤差(小) 1層 2層 3層 4層 RMSE 0.1524 0.2674 0.1464 0.1340 MAE 0.1142 0.2045 0.1066 0.1041 TP GPは層が深くなっても精度が改善するとは限らない。 一方で、TPは層が深くなると精度が改善傾向。 精度の分析(多層、TPX) 71
72.
まとめ 72 画像や音声同様に、深層学習による株価予測モデルは、精度、収益性ともに線形モデル、他 の非線形モデルよりも良好な結果。 また従来の深層学習の問題点であった解釈性等の問題・課題は解決されつつある。
ネットワーク構造の高度化等が課題 「ファクター」という観点から機械学習(深層学習)を用いた株価予測手法を検討。 Ex. 月次、日次、グローバル市場 「Deep Recurrent Factor Model」 Kei Nakagawa, Tomoki Ito, Masaya Abe and Kiyoshi Izumi AAAI-19 Network Interpretability for Deep Learning https://arxiv.org/abs/1901.11493
Editor's Notes
まず株価予測の重要な仮説として効率的市場仮説があります。 これは、3つの段階があり、それぞれ、テクニカルデータ、ファンダメンタルズデータ、そしてあらゆるデータを用いても 収益は獲得できないという仮説です。 これに対して株価予測は非常に多くの分野、手法で研究されてきました。 そこで、株価予測の先行研究を次の3つの観点から整理していきたいと思います。 はじめに株価予測の視点、方法論として、時系列かクロスセクションかという観点、 次に、予測に用いるデータという観点、市場データなのか、財務、経済データを用いるのか、 そして最後に予測手法がパラメトリックな手法か、ノンパラメトリックな手法かという観点です。
方法論についてもう少し見ていきたいと思います。 時系列予測は、過去のデータを用いて将来の株価を予測する方法です。 標語的にいうと、縦にみていく手法です。 最も単純なものに、ARモデルがあり、 これは単純に過去の株価の線形和で将来の株価を予測するものです。 一方で、クロスセクション予測はある基準で銘柄を並べて、 相対的に魅力的な銘柄群を買います。 こっちは」標語的にいうと、横にみていく手法です。 例えば、PBRという割安度を判断する基準で銘柄を5分位にわけます。 そして、最も割安なものを買い、逆に割高なものを売ります。
最近では研究が進んでいて、精度を落とさずに深層学習を説明、解釈する手法がいくつか提案されています。 ひとつは、Activation Mximizationといって、ネットワークの出力を~ それぞれ簡単にみていきます。
最初はActivation Mximizationですが、 これは、深層学習のネットワークの最も理想的なインプットを作成する手法です。 たとえば、スライドには建物と空と判定された画像が右側にあります。 では、このネットワークで最理想的な「建物と空」という画像は何ですか?と聞くわけです。 すると左側の画像が返ってきます。 これが最もネットワークの判断根拠をよく示す入力になっていて、これを解釈するのがActivation Mximizationです。 ちなみに最初の方にみたGoolgeのあの猫も、この方法で作成されています。
つぎに入力に対する感度を分析する、Sensitivity Analysisという手法ですが、 これは、チーターの絵がスライドにありますが、どこを変えるとチーターでなくなるか、を計算し、 その影響が大きい箇所を左側で白く表示しています。 どこが変わるとまずいかを示して解釈する手法です。
最後にLRP
さて、深層学習は色んな分野で高い精度を誇ってますが、一方で課題も多く指摘されています。 例えば、予測が点推定であるため、予測の信頼区間がわからないとか、ハイパーパラメータが多く過学習しやすい、学習に大量のデータが必要などが課題として挙げられています。 そこで、これらの課題に対処するため、深層学習をベイズ推論の枠組み、 具体的にはガウス過程を用いて表現するアプローチが提案されました。 このアプローチはまず深層学習をカーネル関数というもので表現します。 これは単層のNNはNeal(ニール)によって、多層の場合はCho(チョウ)によって導出されました。 そして、そのカーネル関数を用いたガウス過程、深層ガウス過程回帰がLeeによってまさに今年提案されました。
さて、この深層ガウス回帰モデルの最大のメリットは、 こちらの図に表現されています。 この図は有名な画像データMNISTを予測した際の、縦軸がMSE(予測精度)、横軸が予測誤差です。 図から予測誤差が大きい、すなわち予測に自信がないと実際に予測も間違えやすいことがわかります。 モデルができないこと、苦手なことを理解できます。 しかも、精度自体も同じ層の深層学習と比べても同程度、ないし若干改善しています。 以上が研究の背景で、本研究ではこの深層ガウス回帰モデルを金融時系列データへ適用するにあたり、 ガウス過程からt過程への拡張を行いました。 よく知られているように金融時系列はガウスよりも裾が厚いため、 t過程へと拡張することで精度改善が見込めるかどうかを検討します。
このカーネル関数Kについて 中間層に無限個のユニットを持つニューラルネットに対応したカーネル関数Kが存在することが証明されました。 これは深層学習と同様に階層構造を持ちます。 具体的な式は、引数を𝑙−1層のカーネルとしたとき、活性化関数𝜙によって異なる関数 𝐹 𝜙 を用いて書けます。 活性化関数がRuleの場合には解析的に書けて、その他の場合は数値的に計算できます。
では、ガウス過程のイメージですが、こちらの図を見てください。 まずはデータ間の関係性、類似度をカーネル関数で計算します。 そして、そのカーネル関数からの出力を共分散行列とするガウス分布を考えます。 それらのサンプルがガウス過程の具体的な出力になります。 カーネル関数で測って似ているデータは同じような値を取ります。 特徴としては、2つあって、 一つが、オレンジ線が平均をプロットしていて、点線が2σをプロットしてますが、 データが多いところでは分散が小さくなり、データが少ないところでは分散が大きくなります。 もう一つは、1次関数などの関数形を具体的に決めてないため、外挿に強く、サンプルの傾向が変わってもある程度対応できます。
では次に、このガウス過程を用いた回帰モデルを考えます。 つまり、ある被説明変数yをガウス過程と独立な正規ノイズの和で表現できるとします。 すると、ガウス分布同士の和になり、またガウス分布になります。 これは正規分布の性質ですね。 ここで、さらに新たなデータZが与えられたとき、その予測値 𝑓 𝐺𝑃 ∗ を推定したいとします。 ガウス過程の定義から、わかっているyと予測値 𝑓 𝐺𝑃 ∗ の分布もスライドのような結合ガウス分布になります。 するとこの結合ガウス分布の条件付き分布、yを知ったときの予測値 𝑓 𝐺𝑃 ∗ の分布を計算することで、 このような形で分布を特定できます。 また分布はガウス分布なので最尤法で容易に計算可能です。
では、t過程は、データをt分布、下に密度関数がありますが、 これで表現するところだけがガウス過程と違います。 カーネルを二つのサンプルの時点の小さいほうとして場合、 ガウス過程とt過程のサンプルをプロットしたのがスライドの図です。 ガウス過程はようはブラウン運動です。 t過程は見てわかる通り外れ値を考慮でき、 ガウス過程とほぼ同じ性質をもつ一方で、自由度のパラメータが増えます。
では、先ほどと同じく、t過程を用いた回帰モデルを考えます。 違いは、自由度のパラメータνが入っており、ノイズがt分布である点です。 そして、t分布は和については、近似的に成り立ちます。 先ほど同様に新たなデータZが与えられたとき、予測値 𝑓 𝑇𝑃 ∗ は、 まず結合分布を考えて、さらにその条件付き分布をとることで、予測できます。
では、具体的にt過程にすることの有効性を確認していきたいと思います。 データはTPX、SP、DAXの月次データを使います。 ベンチマークは当然深層ガウス過程回帰モデルです。 データの期間は2018年6月からの直近12年分を使用し、推定に7割、テストに3割使用します。 全期間の統計量はこちらの表の通りで、やはり正規性を満たさないため、ガウス過程よりもt過程の方がよさそうです。 回帰モデルの説明変数は、適当に各指数の配当利回り、PBR、PER、ROE、12-1カ月のモメンタムとし、 翌月のリターンを説明します。
こちらが結果のまとめです。 左の表は各指数のGPとTPのRMSEとMAEのサマリーです。 その右の表はGPに対してTPがどれだけ精度が改善したかという改善率を示しています。 表から全ての指数においてRMSEとMAEともにTPの方が精度が良いという結果になりました。 また、中段は予測誤差が大きい場合の結果で、下段は予測誤差が小さい場合の結果です。
こちらはSPXの予測誤差と精度の関係をプロットしたものです。 ちょうど最初のスライドに見せたものと同様の図です。
過去のファイナンスの研究が指摘していることを利用できる。