SlideShare a Scribd company logo
1 of 12
Neural Fractional SDE-Netによる
金融時系列生成
1
2022.3.12 第28回 人工知能学会 金融情報学研究会(SIG-FIN)
林晃平1*,中川慧2
1 東京大学大学院数理科学研究科
2 野村アセットマネジメント株式会社
発表内容
• 研究背景
- ニューラルネットワークによる金融時系列生成
- 連続時間ニューラルネットモデル(ODE-Net, SDE-Net)
• 提案手法:
- 時系列データの長記憶性,非整数階Brown運動
- Neural Fractional SDE-Netの導入
• 生成結果(人工データ,実データ)
• まとめと展望
2
発表内容
• 研究背景
- ニューラルネットワークによる金融時系列生成
- 連続時間ニューラルネットモデル(ODE-Net, SDE-Net)
• 提案手法:
- 時系列データの長記憶性,非整数階Brown運動
- Neural Fractional SDE-Netの導入
• 生成結果(人工データ,実データ)
• まとめと展望
3
ニューラルネットワークによる金融時系列生成
目的:株価や為替などの金融時系列データを人工的に生成.
4
金融時系列の特徴:
• パスは1本のみ.
• 離散データ.
• 観測値は不規則にサンプリングされる.
(金融データの観測は営業日のみ.)
• ランダムネスを持つ.
• 複雑性 -> 予測の困難さ
(長期記憶性,短期間でのラフさ,etc.)
深層学習の活用:
• ニューラルネットワーク(NN)は関数を表現できる:𝑥𝐿
= 𝑓NN 𝜃, 𝑥0
.
• 時系列の背後にある構造(漸化式)を学習し,予測や生成を行いたい.
図:金融時系列の例
NNで金融時系列を生成する際の問題点:
不規則にサンプリングされ,ランダムネス・複雑性を持つ.
-> 時間一様かつ決定論的なモデルでは学習が困難な場合がある.
先行研究:連続時間ニューラルネットモデル
5
飛び越えて伝播
ResNet [He+, 2016]
連続化
ランダムネスの導入
Neural ODE [Chen+, 2018, NeurIPS]
Neural SDE [Liu+, 2019+]
𝑓(𝑥𝑡)
𝑥𝑡
𝑥𝑡+1 = 𝑥𝑡 + 𝑓(𝑥𝑡)
𝑑𝑥𝑡
𝑑𝑡
= 𝑓(𝑡, 𝑥𝑡)
𝑑𝑥𝑡
𝑑𝑡
= 𝑓 𝑡, 𝑥𝑡 + 𝜀𝑡
+
• ネットワーク構造を
常微分方程式 (ODE) で記述できる.
• ODEのソルバーを使うことで
計算量・メモリの削減が可能.
• ネットワーク構造を
確率微分方程式 (SDE) で記述できる.
• SDEのソルバーを使うことで
計算量・メモリの削減が可能.
問題点:標準Brown運動では金融時系列の複雑性を再現するのに不十分.
本研究:ノイズを非整数階Brown運動へ一般化した.
発表内容
• 研究背景
- ニューラルネットワークによる金融時系列生成
- 連続時間ニューラルネットモデル(ODE-Net, SDE-Net)
• 提案手法:
- 時系列データの長記憶性,非整数階Brown運動
- Neural Fractional SDE-Netの導入
• 生成結果(人工データ,実データ)
• まとめと展望
6
時系列の長期記憶性と非整数階Brown運動
定義:𝐻 ∈ 0,1 :Hurst指数. Var(𝐵𝑡
𝐻
− 𝐵𝑠
𝐻
) = 𝑡 − 𝑠 2𝐻
を満たす平均ゼロの連続ガウス過程
𝐵𝑡
𝐻
𝑡≥0を非整数階Brown運動(fractional Brownian motion, fBm)という.
• 𝐻 = 1/2のとき標準Brown運動となる.
• 𝐻 ≠ 1/2のときセミマルチンゲールでない.Hurst指数が小さいほどパスの正則性は低い.
• 数理ファイナンスと関連:裁定取引の存在,パスのラフさ.
• 𝐻 > 1/2のとき,fBmの増分は長期記憶性を持つ.
ここで,確率過程{𝑋𝑡}𝑡≥0に対し,その増分𝑋𝑠,𝑡 = 𝑋𝑡 − 𝑋𝑠が長期記憶性を持つとは次が成り立つこと:
෍
𝑛∈ℕ
Cov 𝑋0,ℎ, 𝑋 𝑛−1 ℎ,𝑛ℎ = ∞, ∀ℎ > 0.
• 金融データや自然言語などの時系列に対し長期記憶性が観測されている.
• SDE-Netの拡張としてfBm (H>1/2) で駆動されるニューラルネット (fSDE-Net) を考え,長期記憶性を持
つパスを生成する.
7
H=0.25 H=0.5 H=0.75
図:非整数階Brown運動 (fBm) のサンプルパスの例
Neural Fractional SDE-Netの導入
• 前提:時系列データ𝑋 = {𝑋𝑡}𝑡∈ 0,𝑇 が次の確率微分方程式に従うと仮定.
𝑑𝑋𝑡 = 𝑏 𝜃, 𝑋𝑡 𝑑𝑡 + 𝜎 𝜃, 𝑋𝑡 𝑑𝐵𝑡
𝐻
, 𝐻 > 1/2.
輸送項𝑏,拡散項𝜎はパラメータ𝜃のニューラルネットワークで与える.
• ネットワーク設計:Multi-layer perceptron (MLP)
𝑥ℓ+1 = tanh 𝑊ℓ𝑥ℓ + 𝑏ℓ , ℓ = 1, … 𝐿
• 数値計算スキーム:陽的Euler法
𝑋(𝑖+1)/𝑛
𝑛
= 𝑋𝑖/𝑛
𝑛
+ 𝑏 𝑋𝑖/𝑛
𝑛 1
𝑛
+ 𝜎 𝑋𝑖/𝑛
𝑛
(𝐵(𝑖+1)/𝑛
𝐻
− 𝐵𝑖/𝑛
𝐻
)
を解き,𝑋𝑡
𝑛
= 𝑋 𝑛𝑡 /𝑛
𝑛
, 0 ≤ 𝑡 ≤ 𝑇と定義する.
• fSDE-Netにより時系列 ෠
𝑋𝑡
𝜃
𝑡≥0
を生成し,対数尤度を最大化するように
パラメータ𝜃を最適化.
𝐿 𝜃 =
1
𝑇
෍
𝑡=0
𝑇
log 𝑝𝜃(𝑡, log(𝑋𝑡+1/𝑋𝑡)) .
ここで,𝑝𝜃は対数リターンlog( ෠
𝑋𝑡+1
𝜃
/ ෠
𝑋𝑡
𝜃
)の確率密度関数.
8
主定理:𝐻 > 1/2と仮定する.上記のfSDE-Netの生成器は一意解を持ち,更に
陽的Euler法により数値的に解くことができる.
発表内容
• 研究背景
- ニューラルネットワークによる金融時系列生成
- 連続時間ニューラルネットモデル(ODE-Net, SDE-Net)
• 提案手法:
- 時系列データの長記憶性,非整数階Brown運動
- Neural Fractional SDE-Netの導入
• 生成結果(人工データ,実データ)
• まとめと展望
9
数値実験
実験設定:次の2種類のデータに対し,fSDE-Netによる生成を行う.
• 人工データ:fractional Ornstein-Uhlenbeck(fOU)過程
𝑑𝑋𝑡 = 𝛼𝑋𝑡𝑑𝑡 + 𝛽𝑑𝐵𝑡
𝐻
ただし,𝛼 = −0.05, 𝛽 = 0.1, 𝐻 = 0.9とする.
𝐻 = 0.9のfSDE-Netで生成を行う.
• 実データ:S&P500指数の終値(2000.1-2021.11).
R/S統計量によるこの観測区間でのHurst指数の推定値は0.591(>0.5).
𝐻 = 0.6のfSDE-Netで生成を行う.
10
fOU SPX
実験結果
• RNN,SDE-Netで生成したデータとの比較を表に示す(太字は最良値).
• Hurst指数についてはfSDE-Netが最良となった.
• 決定係数の低さは予測の難しさを示している.
11
Original SDE-Net fSDE-Net
図:生成したfOUのサンプルパスの例
まとめ
• 複雑性を持つ金融時系列を生成するため,金融市場のデータと関連の深
い非整数階Brown運動(fBm)を用いた生成モデルを提案した.
• 𝐻 > 1/2の場合について,数値解法の精度保障を行った.
• fSDE-Netによる生成データは,Hurst指数で評価したときの長期記憶性を
うまく再現していた.
展望
• 短期間観測ではパスがラフであり,𝐻 < 1/2の場合が重要.
• 𝐻1 > 1/2, 𝐻2 < 1/2として,多次元モデルへの拡張:
𝑑𝑋𝑡 = 𝑏 𝑋𝑡 𝑑𝑡 + 𝜎1 𝑋𝑡 𝑑𝐵𝑡
𝐻1
+ 𝜎2 𝑋𝑡 𝑑𝐵𝑡
𝐻2
• 多資産の場合に対応するため,次元削減.(cf. 潜在空間モデル)
ご清聴ありがとうございました.
12

More Related Content

What's hot

[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...Deep Learning JP
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...Masahiro Suzuki
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイcvpaper. challenge
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...Deep Learning JP
 
A Brief Survey of Schrödinger Bridge (Part I)
A Brief Survey of Schrödinger Bridge (Part I)A Brief Survey of Schrödinger Bridge (Part I)
A Brief Survey of Schrödinger Bridge (Part I)Morpho, Inc.
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing FlowAkihiro Nitta
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked AutoencodersDeep Learning JP
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究についてMasahiro Suzuki
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE広樹 本間
 
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptxARISE analytics
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 

What's hot (20)

[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
 
A Brief Survey of Schrödinger Bridge (Part I)
A Brief Survey of Schrödinger Bridge (Part I)A Brief Survey of Schrödinger Bridge (Part I)
A Brief Survey of Schrödinger Bridge (Part I)
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE
 
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 

Similar to Sigfin Neural Fractional SDE NET

これからのデータセンターが目指す技術(公開用)
これからのデータセンターが目指す技術(公開用) これからのデータセンターが目指す技術(公開用)
これからのデータセンターが目指す技術(公開用) Tadashi Sugita
 
Enocean無線センサー用ノード開発事例
Enocean無線センサー用ノード開発事例Enocean無線センサー用ノード開発事例
Enocean無線センサー用ノード開発事例nodered_ug_jp
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII
 
これから儲かる技術はデータセンターから(公開用)
これから儲かる技術はデータセンターから(公開用)これから儲かる技術はデータセンターから(公開用)
これから儲かる技術はデータセンターから(公開用)Tadashi Sugita
 
Survey on OCP 2021
Survey on OCP 2021Survey on OCP 2021
Survey on OCP 2021ShogoAsaba
 
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...harmonylab
 
大規模ネットワーク分析 篠田
大規模ネットワーク分析 篠田大規模ネットワーク分析 篠田
大規模ネットワーク分析 篠田Kosuke Shinoda
 
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro YokoyamaInsight Technology, Inc.
 
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...KenzoOkuda
 
NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...
NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...
NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...DeepEyeVision, Inc.
 
NBDCヒトデータベースのルールと仕組み
NBDCヒトデータベースのルールと仕組みNBDCヒトデータベースのルールと仕組み
NBDCヒトデータベースのルールと仕組みMTMinowa
 
RWC2012(松江市&テクノプロジェクト)
RWC2012(松江市&テクノプロジェクト)RWC2012(松江市&テクノプロジェクト)
RWC2012(松江市&テクノプロジェクト)Techno Project Co., Ltd.
 
目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)
目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)
目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)NTT DATA Technology & Innovation
 
PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜
PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜
PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜Takuya Miyasaka
 
A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...
A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...
A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...Tokyo Institute of Technology
 
情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...
情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...
情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...Shinji Takao
 
PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)
PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)
PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)NTT DATA Technology & Innovation
 
東工大 工学院 情報通信系 大学院説明会2023
東工大 工学院 情報通信系 大学院説明会2023東工大 工学院 情報通信系 大学院説明会2023
東工大 工学院 情報通信系 大学院説明会2023Tokyo Institute of Technology
 

Similar to Sigfin Neural Fractional SDE NET (20)

Iugonet 20121211
Iugonet 20121211Iugonet 20121211
Iugonet 20121211
 
これからのデータセンターが目指す技術(公開用)
これからのデータセンターが目指す技術(公開用) これからのデータセンターが目指す技術(公開用)
これからのデータセンターが目指す技術(公開用)
 
Enocean無線センサー用ノード開発事例
Enocean無線センサー用ノード開発事例Enocean無線センサー用ノード開発事例
Enocean無線センサー用ノード開発事例
 
CVPR 2018 速報
CVPR 2018 速報CVPR 2018 速報
CVPR 2018 速報
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
 
これから儲かる技術はデータセンターから(公開用)
これから儲かる技術はデータセンターから(公開用)これから儲かる技術はデータセンターから(公開用)
これから儲かる技術はデータセンターから(公開用)
 
Survey on OCP 2021
Survey on OCP 2021Survey on OCP 2021
Survey on OCP 2021
 
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
 
大規模ネットワーク分析 篠田
大規模ネットワーク分析 篠田大規模ネットワーク分析 篠田
大規模ネットワーク分析 篠田
 
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
 
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
 
NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...
NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...
NeurIPS2021から見るメタ学習の研究動向 - 第83回人工知能セミナー (2022.3.7)「AIトレンド・トップカンファレンス報告会(NeurI...
 
NBDCヒトデータベースのルールと仕組み
NBDCヒトデータベースのルールと仕組みNBDCヒトデータベースのルールと仕組み
NBDCヒトデータベースのルールと仕組み
 
RWC2012(松江市&テクノプロジェクト)
RWC2012(松江市&テクノプロジェクト)RWC2012(松江市&テクノプロジェクト)
RWC2012(松江市&テクノプロジェクト)
 
目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)
目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)
目標ドメインにおける少量サンプルの近傍データを用いた文書分類器の精度推定手法(第138回MPS・第70回BIO合同研究発表会)
 
PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜
PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜
PCE 〜MPLSネットワークのSDN化を本気で実現する"唯一の"方法〜
 
A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...
A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...
A Distributed Parallel Community Detection Heuristics for Large-scale Real Gr...
 
情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...
情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...
情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...
 
PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)
PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)
PCIDSSで学ぶNeuVectorの基礎(Kubernetes Novice Tokyo #21 発表資料)
 
東工大 工学院 情報通信系 大学院説明会2023
東工大 工学院 情報通信系 大学院説明会2023東工大 工学院 情報通信系 大学院説明会2023
東工大 工学院 情報通信系 大学院説明会2023
 

More from Kei Nakagawa

連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)Kei Nakagawa
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~Kei Nakagawa
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)Kei Nakagawa
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...Kei Nakagawa
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaKei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...Kei Nakagawa
 
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメントKei Nakagawa
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用Kei Nakagawa
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析Kei Nakagawa
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...Kei Nakagawa
 
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~Kei Nakagawa
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習Kei Nakagawa
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsKei Nakagawa
 
アセットアロケーションの未来
アセットアロケーションの未来アセットアロケーションの未来
アセットアロケーションの未来Kei Nakagawa
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Kei Nakagawa
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張Kei Nakagawa
 
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析Kei Nakagawa
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesKei Nakagawa
 

More from Kei Nakagawa (20)

連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
連続時間フラクショナル・トピックモデル(NLP2023 金融・経済ドメインのための言語処理)
 
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
B2B企業ブランド価値の財務指標・株式市場へのインパクト ~PBR(株価純資産倍率)等への影響~
 
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
RM-CVaR: Regularized Multiple β-CVaR Portfolio(IJCAI Presentation)
 
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
What Do Good Integrated Reports Tell Us?: An Empirical Study of Japanese Comp...
 
IFTA2020 Kei Nakagawa
IFTA2020 Kei NakagawaIFTA2020 Kei Nakagawa
IFTA2020 Kei Nakagawa
 
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
RIC-NN: A Robust Transferable Deep Learning Framework for Cross-sectional Inv...
 
金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント金融リスクとポートフォリオマネジメント
金融リスクとポートフォリオマネジメント
 
RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用RIC-NN:深層転移学習を用いたマルチファクター運用
RIC-NN:深層転移学習を用いたマルチファクター運用
 
因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析因果チェーンを用いたリードラグ効果の実証分析
因果チェーンを用いたリードラグ効果の実証分析
 
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
A Robust Transferable Deep Learning Framework for Cross-sectional Investment ...
 
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
ブラックリッターマン法による リスクベースポートフォリオの拡張 ~リスクベースポートフォリオの課題と拡張への取り組み~
 
ファクター投資と機械学習
ファクター投資と機械学習ファクター投資と機械学習
ファクター投資と機械学習
 
Economic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock ReturnsEconomic Causal Chain and Predictable Stock Returns
Economic Causal Chain and Predictable Stock Returns
 
アセットアロケーションの未来
アセットアロケーションの未来アセットアロケーションの未来
アセットアロケーションの未来
 
Cfa 20190620
Cfa 20190620Cfa 20190620
Cfa 20190620
 
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...Stock price prediction using k* nearest neighbors and indexing dynamic time w...
Stock price prediction using k* nearest neighbors and indexing dynamic time w...
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
ブラック・リッターマン法を用いたリスクベース・ポートフォリオの拡張
 
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析GARCHSKモデルを用いた条件付き固有モーメントの実証分析
GARCHSKモデルを用いた条件付き固有モーメントの実証分析
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
 

Sigfin Neural Fractional SDE NET

  • 1. Neural Fractional SDE-Netによる 金融時系列生成 1 2022.3.12 第28回 人工知能学会 金融情報学研究会(SIG-FIN) 林晃平1*,中川慧2 1 東京大学大学院数理科学研究科 2 野村アセットマネジメント株式会社
  • 2. 発表内容 • 研究背景 - ニューラルネットワークによる金融時系列生成 - 連続時間ニューラルネットモデル(ODE-Net, SDE-Net) • 提案手法: - 時系列データの長記憶性,非整数階Brown運動 - Neural Fractional SDE-Netの導入 • 生成結果(人工データ,実データ) • まとめと展望 2
  • 3. 発表内容 • 研究背景 - ニューラルネットワークによる金融時系列生成 - 連続時間ニューラルネットモデル(ODE-Net, SDE-Net) • 提案手法: - 時系列データの長記憶性,非整数階Brown運動 - Neural Fractional SDE-Netの導入 • 生成結果(人工データ,実データ) • まとめと展望 3
  • 4. ニューラルネットワークによる金融時系列生成 目的:株価や為替などの金融時系列データを人工的に生成. 4 金融時系列の特徴: • パスは1本のみ. • 離散データ. • 観測値は不規則にサンプリングされる. (金融データの観測は営業日のみ.) • ランダムネスを持つ. • 複雑性 -> 予測の困難さ (長期記憶性,短期間でのラフさ,etc.) 深層学習の活用: • ニューラルネットワーク(NN)は関数を表現できる:𝑥𝐿 = 𝑓NN 𝜃, 𝑥0 . • 時系列の背後にある構造(漸化式)を学習し,予測や生成を行いたい. 図:金融時系列の例 NNで金融時系列を生成する際の問題点: 不規則にサンプリングされ,ランダムネス・複雑性を持つ. -> 時間一様かつ決定論的なモデルでは学習が困難な場合がある.
  • 5. 先行研究:連続時間ニューラルネットモデル 5 飛び越えて伝播 ResNet [He+, 2016] 連続化 ランダムネスの導入 Neural ODE [Chen+, 2018, NeurIPS] Neural SDE [Liu+, 2019+] 𝑓(𝑥𝑡) 𝑥𝑡 𝑥𝑡+1 = 𝑥𝑡 + 𝑓(𝑥𝑡) 𝑑𝑥𝑡 𝑑𝑡 = 𝑓(𝑡, 𝑥𝑡) 𝑑𝑥𝑡 𝑑𝑡 = 𝑓 𝑡, 𝑥𝑡 + 𝜀𝑡 + • ネットワーク構造を 常微分方程式 (ODE) で記述できる. • ODEのソルバーを使うことで 計算量・メモリの削減が可能. • ネットワーク構造を 確率微分方程式 (SDE) で記述できる. • SDEのソルバーを使うことで 計算量・メモリの削減が可能. 問題点:標準Brown運動では金融時系列の複雑性を再現するのに不十分. 本研究:ノイズを非整数階Brown運動へ一般化した.
  • 6. 発表内容 • 研究背景 - ニューラルネットワークによる金融時系列生成 - 連続時間ニューラルネットモデル(ODE-Net, SDE-Net) • 提案手法: - 時系列データの長記憶性,非整数階Brown運動 - Neural Fractional SDE-Netの導入 • 生成結果(人工データ,実データ) • まとめと展望 6
  • 7. 時系列の長期記憶性と非整数階Brown運動 定義:𝐻 ∈ 0,1 :Hurst指数. Var(𝐵𝑡 𝐻 − 𝐵𝑠 𝐻 ) = 𝑡 − 𝑠 2𝐻 を満たす平均ゼロの連続ガウス過程 𝐵𝑡 𝐻 𝑡≥0を非整数階Brown運動(fractional Brownian motion, fBm)という. • 𝐻 = 1/2のとき標準Brown運動となる. • 𝐻 ≠ 1/2のときセミマルチンゲールでない.Hurst指数が小さいほどパスの正則性は低い. • 数理ファイナンスと関連:裁定取引の存在,パスのラフさ. • 𝐻 > 1/2のとき,fBmの増分は長期記憶性を持つ. ここで,確率過程{𝑋𝑡}𝑡≥0に対し,その増分𝑋𝑠,𝑡 = 𝑋𝑡 − 𝑋𝑠が長期記憶性を持つとは次が成り立つこと: ෍ 𝑛∈ℕ Cov 𝑋0,ℎ, 𝑋 𝑛−1 ℎ,𝑛ℎ = ∞, ∀ℎ > 0. • 金融データや自然言語などの時系列に対し長期記憶性が観測されている. • SDE-Netの拡張としてfBm (H>1/2) で駆動されるニューラルネット (fSDE-Net) を考え,長期記憶性を持 つパスを生成する. 7 H=0.25 H=0.5 H=0.75 図:非整数階Brown運動 (fBm) のサンプルパスの例
  • 8. Neural Fractional SDE-Netの導入 • 前提:時系列データ𝑋 = {𝑋𝑡}𝑡∈ 0,𝑇 が次の確率微分方程式に従うと仮定. 𝑑𝑋𝑡 = 𝑏 𝜃, 𝑋𝑡 𝑑𝑡 + 𝜎 𝜃, 𝑋𝑡 𝑑𝐵𝑡 𝐻 , 𝐻 > 1/2. 輸送項𝑏,拡散項𝜎はパラメータ𝜃のニューラルネットワークで与える. • ネットワーク設計:Multi-layer perceptron (MLP) 𝑥ℓ+1 = tanh 𝑊ℓ𝑥ℓ + 𝑏ℓ , ℓ = 1, … 𝐿 • 数値計算スキーム:陽的Euler法 𝑋(𝑖+1)/𝑛 𝑛 = 𝑋𝑖/𝑛 𝑛 + 𝑏 𝑋𝑖/𝑛 𝑛 1 𝑛 + 𝜎 𝑋𝑖/𝑛 𝑛 (𝐵(𝑖+1)/𝑛 𝐻 − 𝐵𝑖/𝑛 𝐻 ) を解き,𝑋𝑡 𝑛 = 𝑋 𝑛𝑡 /𝑛 𝑛 , 0 ≤ 𝑡 ≤ 𝑇と定義する. • fSDE-Netにより時系列 ෠ 𝑋𝑡 𝜃 𝑡≥0 を生成し,対数尤度を最大化するように パラメータ𝜃を最適化. 𝐿 𝜃 = 1 𝑇 ෍ 𝑡=0 𝑇 log 𝑝𝜃(𝑡, log(𝑋𝑡+1/𝑋𝑡)) . ここで,𝑝𝜃は対数リターンlog( ෠ 𝑋𝑡+1 𝜃 / ෠ 𝑋𝑡 𝜃 )の確率密度関数. 8 主定理:𝐻 > 1/2と仮定する.上記のfSDE-Netの生成器は一意解を持ち,更に 陽的Euler法により数値的に解くことができる.
  • 9. 発表内容 • 研究背景 - ニューラルネットワークによる金融時系列生成 - 連続時間ニューラルネットモデル(ODE-Net, SDE-Net) • 提案手法: - 時系列データの長記憶性,非整数階Brown運動 - Neural Fractional SDE-Netの導入 • 生成結果(人工データ,実データ) • まとめと展望 9
  • 10. 数値実験 実験設定:次の2種類のデータに対し,fSDE-Netによる生成を行う. • 人工データ:fractional Ornstein-Uhlenbeck(fOU)過程 𝑑𝑋𝑡 = 𝛼𝑋𝑡𝑑𝑡 + 𝛽𝑑𝐵𝑡 𝐻 ただし,𝛼 = −0.05, 𝛽 = 0.1, 𝐻 = 0.9とする. 𝐻 = 0.9のfSDE-Netで生成を行う. • 実データ:S&P500指数の終値(2000.1-2021.11). R/S統計量によるこの観測区間でのHurst指数の推定値は0.591(>0.5). 𝐻 = 0.6のfSDE-Netで生成を行う. 10 fOU SPX
  • 11. 実験結果 • RNN,SDE-Netで生成したデータとの比較を表に示す(太字は最良値). • Hurst指数についてはfSDE-Netが最良となった. • 決定係数の低さは予測の難しさを示している. 11 Original SDE-Net fSDE-Net 図:生成したfOUのサンプルパスの例
  • 12. まとめ • 複雑性を持つ金融時系列を生成するため,金融市場のデータと関連の深 い非整数階Brown運動(fBm)を用いた生成モデルを提案した. • 𝐻 > 1/2の場合について,数値解法の精度保障を行った. • fSDE-Netによる生成データは,Hurst指数で評価したときの長期記憶性を うまく再現していた. 展望 • 短期間観測ではパスがラフであり,𝐻 < 1/2の場合が重要. • 𝐻1 > 1/2, 𝐻2 < 1/2として,多次元モデルへの拡張: 𝑑𝑋𝑡 = 𝑏 𝑋𝑡 𝑑𝑡 + 𝜎1 𝑋𝑡 𝑑𝐵𝑡 𝐻1 + 𝜎2 𝑋𝑡 𝑑𝐵𝑡 𝐻2 • 多資産の場合に対応するため,次元削減.(cf. 潜在空間モデル) ご清聴ありがとうございました. 12