SlideShare a Scribd company logo
1 of 1
Method
RIC-NN:深層転移学習を用いたマルチファクター運用
中川 慧 (𝟏)
, 阿部 真也 (𝟏)
, 小宮山 純平 (𝟐)
1野村アセットマネジメント株式会社, 2ニューヨーク大学
Features and Network Architecture
Reference
Experimental Results
Introduction
➢クロスセクション予測
➢特徴量(ファクター) ➢パフォーマンス計測
➢ ベースライン手法との比較
[1] Nakagawa, K.; Abe, M.; and Komiyama, J. 2019.
A robust transferable deep learning framework for cross-sectional investment strategy. CoRR abs/1910.01491.
✓ある基準で見て(相対的に)リターンの高い銘柄を予測。
➢RIC-NN: Rank IC based Neural Network
(2) Rank ICベースのEarly Stopping
(3) Deep Transfer Learning
・投資対象銘柄が時変である
・停止水準が直感的に把握できる
(1) 深層学習を用いたマルチファクターモデル
No. Feature
(Factor)
No. Feature (Factor) No. Feature (Factor)
1 Book-to-market
ratio
8 Return on
invested capital
15 EPS Revision
(1 month)
2 Earnings-to-
price ratio
9 Accruals 16 EPS Revision
(3 months)
3 Dividend yield 10 Total Asset
Growth Rate
17 Past stock return
(1 month)
4 Sales-to-price
ratio
11 Current ratio 18 Past stock return
(12 months)
5 Cash flow-to-
price ratio
12 Equity ratio 19 Volatility
6 Return on
equity
13 Total Asset
Turnover Rate
20 Skewness
7 Return on asset 14 CAPEX Growth
Rate
・ 実務的によく使用される20のファクターを使う。
✓ユニバースとしては次の指数の構成銘柄
➢Problem Formulation (回帰問題)
・ MSEを最小化するように関数𝑓を学習する。
✓ 20個のファクター:
・ ある月𝑇 におけるユニバース 𝑈 𝑇の銘柄𝑖に対して、
𝐱 𝑖,𝑇 ∈ 𝑅20
𝑥/ 𝑅
𝑦 ≔ 2(𝑥 − 𝑦)/( 𝑥 + 𝑦 )
✓教師: [0,1]に基準化した一ヵ月先のリターン
前処理 & Feature augmentation
𝒗𝑖,𝑇 = (𝒙𝑖,𝑇, 𝒙𝑖,𝑇−3,… , 𝒙𝑖,𝑇−12,
𝒙𝑖,𝑇/ 𝑅
𝒙𝑖,𝑇−3,… , 𝒙𝑖,𝑇/ 𝑅
𝒙𝑖,𝑇−12) ∈ [0,1] 𝟏𝟖𝟎
𝑟𝑖,𝑇+1 ∈ [0,1]
➢Our Model (RIC-NN)
・ RIC-NNのネットワークの構造
✓ 全結合のフィードフォワードネットワーク
✓ 隠れ層が6層:
{ 150 – 150 – 100 – 100 – 50 – 50 }
ドロップアウト:
(50% – 50% – 30% – 30% – 10% – 10%)
✓ 活性化関数はReLU
✓ Rank IC = 0.20で学習停止
✓ 転移学習には最初の4層を転移させる。
・ Long Portfolio Strategy - 予測リターンが上位1分位の銘柄群を等ウェイトで買う
- ベンチマーク: すべての銘柄の等ウェイト
・ NA: RIC-NN(転移なし)
が最も良いパフォーマンス
・ AP: RIC-NN(転移あり)
が最も良いパフォーマンス
・ NAはSource Domainとして
APのパフォーマンスを向上させるが、逆はない。
・エポック数ベースは
非常にセンシティブである。
✓予測に有効である「基準」をファイナンスでは
ファクターといい、これまで多くのファクターが
発見されてきた。
Rank IC 回帰分析 分位ポートフォリオ
ファクターと相対リターンの
順位相関係数
ファクターと相対リターン
の回帰係数
魅力的な分位の銘柄群を買い、
逆を売りした戦略
経験的に0.1程度あれば有効 係数のt値で有効性を判断。 R/Rが1を超えてると有効。
✓「基準」の有効性の確認には次の3つがよく使用される。
複数のファクターを深層転移学習を用いて
効率的に組み合わせ、
高いリターンを獲得する
クロスセクション予測のフレームワークを提案
✓過学習/過少学習を抑制するために、Rank ICを用いる
✓市場間の非対称な情報伝播をとらえるために転移学習を使用
研究の目的
- MSCI North America Index (NA)
- MSCI Pacific Index (AP)
➢ Epochベースとの比較
2004/12から2018/12まで毎月末に実施

More Related Content

What's hot

Kazumasa Sakiyama Bachelor Thesis
Kazumasa Sakiyama Bachelor ThesisKazumasa Sakiyama Bachelor Thesis
Kazumasa Sakiyama Bachelor Thesispflab
 
[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...
[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...
[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...Deep Learning JP
 
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...harmonylab
 
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?harmonylab
 
[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...
[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...
[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...Deep Learning JP
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksDeep Learning JP
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイyohei okawa
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法についてMasanoriSuganuma
 
FastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded SystemsFastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded Systemsharmonylab
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...MasanoriSuganuma
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...MasanoriSuganuma
 
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)MasanoriSuganuma
 
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolutioncvpaper. challenge
 
2020 08 05_dl_DETR
2020 08 05_dl_DETR2020 08 05_dl_DETR
2020 08 05_dl_DETRharmonylab
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
Icml読み会 deep speech2
Icml読み会 deep speech2Icml読み会 deep speech2
Icml読み会 deep speech2Jiro Nishitoba
 
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...Deep Learning JP
 

What's hot (18)

Kazumasa Sakiyama Bachelor Thesis
Kazumasa Sakiyama Bachelor ThesisKazumasa Sakiyama Bachelor Thesis
Kazumasa Sakiyama Bachelor Thesis
 
[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...
[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...
[DL輪読会]RobustNet: Improving Domain Generalization in Urban- Scene Segmentatio...
 
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
 
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?
 
[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...
[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...
[DL輪読会]Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep...
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイ
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
FastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded SystemsFastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded Systems
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
 
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
 
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
【CVPR 2019】Second-order Attention Network for Single Image Super-Resolution
 
2020 08 05_dl_DETR
2020 08 05_dl_DETR2020 08 05_dl_DETR
2020 08 05_dl_DETR
 
卒業研究進捗報告
卒業研究進捗報告卒業研究進捗報告
卒業研究進捗報告
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
Icml読み会 deep speech2
Icml読み会 deep speech2Icml読み会 deep speech2
Icml読み会 deep speech2
 
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
 

Similar to RIC-NN:深層転移学習を用いたマルチファクター運用

【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2Hirokatsu Kataoka
 
End-to-end learning of keypoint detector and descriptor for pose invariant 3D...
End-to-end learning of keypoint detector and descriptor for pose invariant 3D...End-to-end learning of keypoint detector and descriptor for pose invariant 3D...
End-to-end learning of keypoint detector and descriptor for pose invariant 3D...YasuakiMori2
 
ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)Hideki Okada
 
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object DetectionToru Tamaki
 
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A SurveyDeep Learning JP
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTURE Project
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてAkisato Kimura
 
CREを支える技術とココロ
CREを支える技術とココロCREを支える技術とココロ
CREを支える技術とココロYOJI WATANABE
 
効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)cvpaper. challenge
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Preferred Networks
 
20150803.山口大学講演
20150803.山口大学講演20150803.山口大学講演
20150803.山口大学講演Hayaru SHOUNO
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusOfficial
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )cvpaper. challenge
 
Hidehito Yabuuchi Bachelor Thesis
Hidehito Yabuuchi Bachelor ThesisHidehito Yabuuchi Bachelor Thesis
Hidehito Yabuuchi Bachelor Thesispflab
 

Similar to RIC-NN:深層転移学習を用いたマルチファクター運用 (20)

ICCV2011 report
ICCV2011 reportICCV2011 report
ICCV2011 report
 
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
 
End-to-end learning of keypoint detector and descriptor for pose invariant 3D...
End-to-end learning of keypoint detector and descriptor for pose invariant 3D...End-to-end learning of keypoint detector and descriptor for pose invariant 3D...
End-to-end learning of keypoint detector and descriptor for pose invariant 3D...
 
ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)
 
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection
 
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
[DL輪読会]CNN - based Density Estimation and CrowdCounting A Survey
 
Icra2020 v1
Icra2020 v1Icra2020 v1
Icra2020 v1
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 
Ia20120118 sayama
Ia20120118 sayamaIa20120118 sayama
Ia20120118 sayama
 
Semantic segmentation2
Semantic segmentation2Semantic segmentation2
Semantic segmentation2
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
 
CREを支える技術とココロ
CREを支える技術とココロCREを支える技術とココロ
CREを支える技術とココロ
 
効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
 
20150803.山口大学講演
20150803.山口大学講演20150803.山口大学講演
20150803.山口大学講演
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
 
SoCC12報告
SoCC12報告SoCC12報告
SoCC12報告
 
Hidehito Yabuuchi Bachelor Thesis
Hidehito Yabuuchi Bachelor ThesisHidehito Yabuuchi Bachelor Thesis
Hidehito Yabuuchi Bachelor Thesis
 

More from Kei Nakagawa

連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)Kei Nakagawa
 
Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETKei Nakagawa
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~Kei Nakagawa
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)Kei Nakagawa
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...Kei Nakagawa
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaKei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...Kei Nakagawa
 
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメントKei Nakagawa
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析Kei Nakagawa
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...Kei Nakagawa
 
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~Kei Nakagawa
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習Kei Nakagawa
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsKei Nakagawa
 
アセットアロケーションの未来
アセットアロケーションの未来アセットアロケーションの未来
アセットアロケーションの未来Kei Nakagawa
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Kei Nakagawa
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張Kei Nakagawa
 
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析Kei Nakagawa
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesKei Nakagawa
 

More from Kei Nakagawa (20)

連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
 
Sigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NETSigfin Neural Fractional SDE NET
Sigfin Neural Fractional SDE NET
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
 
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
 
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock Returns
 
アセットアロケーションの未来
アセットアロケーションの未来アセットアロケーションの未来
アセットアロケーションの未来
 
Cfa 20190620
Cfa 20190620Cfa 20190620
Cfa 20190620
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
 
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
 

RIC-NN:深層転移学習を用いたマルチファクター運用

  • 1. Method RIC-NN:深層転移学習を用いたマルチファクター運用 中川 慧 (𝟏) , 阿部 真也 (𝟏) , 小宮山 純平 (𝟐) 1野村アセットマネジメント株式会社, 2ニューヨーク大学 Features and Network Architecture Reference Experimental Results Introduction ➢クロスセクション予測 ➢特徴量(ファクター) ➢パフォーマンス計測 ➢ ベースライン手法との比較 [1] Nakagawa, K.; Abe, M.; and Komiyama, J. 2019. A robust transferable deep learning framework for cross-sectional investment strategy. CoRR abs/1910.01491. ✓ある基準で見て(相対的に)リターンの高い銘柄を予測。 ➢RIC-NN: Rank IC based Neural Network (2) Rank ICベースのEarly Stopping (3) Deep Transfer Learning ・投資対象銘柄が時変である ・停止水準が直感的に把握できる (1) 深層学習を用いたマルチファクターモデル No. Feature (Factor) No. Feature (Factor) No. Feature (Factor) 1 Book-to-market ratio 8 Return on invested capital 15 EPS Revision (1 month) 2 Earnings-to- price ratio 9 Accruals 16 EPS Revision (3 months) 3 Dividend yield 10 Total Asset Growth Rate 17 Past stock return (1 month) 4 Sales-to-price ratio 11 Current ratio 18 Past stock return (12 months) 5 Cash flow-to- price ratio 12 Equity ratio 19 Volatility 6 Return on equity 13 Total Asset Turnover Rate 20 Skewness 7 Return on asset 14 CAPEX Growth Rate ・ 実務的によく使用される20のファクターを使う。 ✓ユニバースとしては次の指数の構成銘柄 ➢Problem Formulation (回帰問題) ・ MSEを最小化するように関数𝑓を学習する。 ✓ 20個のファクター: ・ ある月𝑇 におけるユニバース 𝑈 𝑇の銘柄𝑖に対して、 𝐱 𝑖,𝑇 ∈ 𝑅20 𝑥/ 𝑅 𝑦 ≔ 2(𝑥 − 𝑦)/( 𝑥 + 𝑦 ) ✓教師: [0,1]に基準化した一ヵ月先のリターン 前処理 & Feature augmentation 𝒗𝑖,𝑇 = (𝒙𝑖,𝑇, 𝒙𝑖,𝑇−3,… , 𝒙𝑖,𝑇−12, 𝒙𝑖,𝑇/ 𝑅 𝒙𝑖,𝑇−3,… , 𝒙𝑖,𝑇/ 𝑅 𝒙𝑖,𝑇−12) ∈ [0,1] 𝟏𝟖𝟎 𝑟𝑖,𝑇+1 ∈ [0,1] ➢Our Model (RIC-NN) ・ RIC-NNのネットワークの構造 ✓ 全結合のフィードフォワードネットワーク ✓ 隠れ層が6層: { 150 – 150 – 100 – 100 – 50 – 50 } ドロップアウト: (50% – 50% – 30% – 30% – 10% – 10%) ✓ 活性化関数はReLU ✓ Rank IC = 0.20で学習停止 ✓ 転移学習には最初の4層を転移させる。 ・ Long Portfolio Strategy - 予測リターンが上位1分位の銘柄群を等ウェイトで買う - ベンチマーク: すべての銘柄の等ウェイト ・ NA: RIC-NN(転移なし) が最も良いパフォーマンス ・ AP: RIC-NN(転移あり) が最も良いパフォーマンス ・ NAはSource Domainとして APのパフォーマンスを向上させるが、逆はない。 ・エポック数ベースは 非常にセンシティブである。 ✓予測に有効である「基準」をファイナンスでは ファクターといい、これまで多くのファクターが 発見されてきた。 Rank IC 回帰分析 分位ポートフォリオ ファクターと相対リターンの 順位相関係数 ファクターと相対リターン の回帰係数 魅力的な分位の銘柄群を買い、 逆を売りした戦略 経験的に0.1程度あれば有効 係数のt値で有効性を判断。 R/Rが1を超えてると有効。 ✓「基準」の有効性の確認には次の3つがよく使用される。 複数のファクターを深層転移学習を用いて 効率的に組み合わせ、 高いリターンを獲得する クロスセクション予測のフレームワークを提案 ✓過学習/過少学習を抑制するために、Rank ICを用いる ✓市場間の非対称な情報伝播をとらえるために転移学習を使用 研究の目的 - MSCI North America Index (NA) - MSCI Pacific Index (AP) ➢ Epochベースとの比較 2004/12から2018/12まで毎月末に実施