SlideShare a Scribd company logo
1 of 11
Download to read offline
シミュレーション工学


地球における宇宙速度の計算

               AE1-8 小田 悠介
宇宙速度

●
    第1宇宙速度
      ●
          天体に墜落しないで
          周回軌道に乗る(楕円運動)ための速度
●
    第2宇宙速度
      ●
          天体の重力を振り切って
          外宇宙へ行く(双曲線運動)ための速度
●
    地球では・・・


●
    この速度を数値的に求めてみる.
支配方程式

●
    次の条件を仮定すると,単純な2質点の運動で表せる.
      ●
          地球は完全な球である
      ●
          地球の密度は同心球分布である
      ●
          m≪M
●
    このとき,物体の座標pについて
支配方程式の変形

●
    式を使いやすくするために,
    2階微分を1階微分に変形する.


    というベクトルを用いて,
Runge-Kutta法

●
    微分方程式の数値解法
       ●
           現在の値から予測値を用いて次の値を計算
       ●
           割と精度が良い

●
    dx/dt = f(x)のとき,
    4次Runge-Kutta法は
           →→→
宇宙速度の算出

●
    Runge-Kutta法によるシミュレーション結果から二分探索
    によって宇宙速度を算出する.
●
    二分探索で使用する条件・・・
      ●
          第1宇宙速度:
            –   未満: 軌道が地球に食い込む
            –   以上: 物体が半周する
      ●
          第2宇宙速度:
            –   未満: 元の地点に帰ってくる
            –   以上: 無限遠に飛んでゆく
                  ●
                      実際には無限遠の判定が難しいので,
                      地球半径の1000倍まで行ったところで打ち切る.
実験結果(1)

●
    シミュレーション環境・・・MATLAB 7.12.0上で検証
      ●
          定数
               –   万有引力定数         G = 6.674×10-11 m3s-2/kg
               –   地球質量           M = 5.972×1024 kg
               –   地球半径 (赤道半径)    R = 6.378×106 m
      ●
          初期条件
               –   x=0
               –   y = R+1(赤道の1m上空)
               –   vy = 0
      ●   vxを適当な値にして,地球に対して水平に打ち出す.
実験結果(1)

●
    シミュレーションによる物体の軌道
実験結果(2)

●
    二分探索による宇宙速度の算出




        第2宇宙速度         第1宇宙速度
実験結果(2)

●
    最終的に得られた値:
       ●
           第1宇宙速度: 7.9052 ~ 7.9053 [km/s]
              –   解析解: 7.905 [km/s]

       ●
           第2宇宙速度: 11.1755 ~ 11.1770 [km/s]
              –   解析解: 11.18 [km/s]


●
    4桁程度の範囲では,解析解と数値解がよく一致する.
    (もう少し詳しく計算してみると,第2宇宙速度に0.03%程度の定常誤差が出る)

    (探索条件に打ち切りを使っているため?)
まとめ

●
    地球の第1宇宙速度,第2宇宙速度を数値的に求める方法を
    考案,プログラムを組んで実験した.
●
    解析解との比較の結果,4桁程度の範囲でよく一致してい
    た.
●
    第2宇宙速度の探索に問題があるので,よりよい方法を検
    討する必要がある.

More Related Content

What's hot

深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知Chihiro Kusunoki
 
機械学習モデルの列挙
機械学習モデルの列挙機械学習モデルの列挙
機械学習モデルの列挙Satoshi Hara
 
[DL輪読会]陰関数微分を用いた深層学習
[DL輪読会]陰関数微分を用いた深層学習[DL輪読会]陰関数微分を用いた深層学習
[DL輪読会]陰関数微分を用いた深層学習Deep Learning JP
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2Hidehisa Arai
 
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem ProvingDeep Learning JP
 
正常稼働状態の表現学習に基づく風車異常検知
正常稼働状態の表現学習に基づく風車異常検知正常稼働状態の表現学習に基づく風車異常検知
正常稼働状態の表現学習に基づく風車異常検知pcl-lab
 
[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーション[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーションDeep Learning JP
 
最尤推定法(NNでの応用)
最尤推定法(NNでの応用)最尤推定法(NNでの応用)
最尤推定法(NNでの応用)MatsuiRyo
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation
[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation
[DL輪読会]Deep Dynamics Models for Learning Dexterous ManipulationDeep Learning JP
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005ぱんいち すみもと
 
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...ARISE analytics
 
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...Yamato OKAMOTO
 
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...Deep Learning JP
 
Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理Takashi Yamane
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
“機械学習の説明”の信頼性
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性Satoshi Hara
 
[DL輪読会]Temporal Abstraction in NeurIPS2019
[DL輪読会]Temporal Abstraction in NeurIPS2019[DL輪読会]Temporal Abstraction in NeurIPS2019
[DL輪読会]Temporal Abstraction in NeurIPS2019Deep Learning JP
 
[DL輪読会]Deep Anomaly Detection Using Geometric Transformations
[DL輪読会]Deep Anomaly Detection Using Geometric Transformations[DL輪読会]Deep Anomaly Detection Using Geometric Transformations
[DL輪読会]Deep Anomaly Detection Using Geometric TransformationsDeep Learning JP
 

What's hot (20)

深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
 
【浜松ホトニクス】浜松ホトニクスの病理ネットワーク化への取り組み
【浜松ホトニクス】浜松ホトニクスの病理ネットワーク化への取り組み【浜松ホトニクス】浜松ホトニクスの病理ネットワーク化への取り組み
【浜松ホトニクス】浜松ホトニクスの病理ネットワーク化への取り組み
 
機械学習モデルの列挙
機械学習モデルの列挙機械学習モデルの列挙
機械学習モデルの列挙
 
[DL輪読会]陰関数微分を用いた深層学習
[DL輪読会]陰関数微分を用いた深層学習[DL輪読会]陰関数微分を用いた深層学習
[DL輪読会]陰関数微分を用いた深層学習
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2
 
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
 
正常稼働状態の表現学習に基づく風車異常検知
正常稼働状態の表現学習に基づく風車異常検知正常稼働状態の表現学習に基づく風車異常検知
正常稼働状態の表現学習に基づく風車異常検知
 
[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーション[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーション
 
最尤推定法(NNでの応用)
最尤推定法(NNでの応用)最尤推定法(NNでの応用)
最尤推定法(NNでの応用)
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation
[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation
[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
 
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
 
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...
 
Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
“機械学習の説明”の信頼性
“機械学習の説明”の信頼性“機械学習の説明”の信頼性
“機械学習の説明”の信頼性
 
[DL輪読会]Temporal Abstraction in NeurIPS2019
[DL輪読会]Temporal Abstraction in NeurIPS2019[DL輪読会]Temporal Abstraction in NeurIPS2019
[DL輪読会]Temporal Abstraction in NeurIPS2019
 
[DL輪読会]Deep Anomaly Detection Using Geometric Transformations
[DL輪読会]Deep Anomaly Detection Using Geometric Transformations[DL輪読会]Deep Anomaly Detection Using Geometric Transformations
[DL輪読会]Deep Anomaly Detection Using Geometric Transformations
 

Viewers also liked

ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...Yusuke Oda
 
Pattern Recognition and Machine Learning: Section 3.3
Pattern Recognition and Machine Learning: Section 3.3Pattern Recognition and Machine Learning: Section 3.3
Pattern Recognition and Machine Learning: Section 3.3Yusuke Oda
 
Encoder-decoder 翻訳 (TISハンズオン資料)
Encoder-decoder 翻訳 (TISハンズオン資料)Encoder-decoder 翻訳 (TISハンズオン資料)
Encoder-decoder 翻訳 (TISハンズオン資料)Yusuke Oda
 
翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)
翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)
翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)Yusuke Oda
 
Learning to Generate Pseudo-code from Source Code using Statistical Machine T...
Learning to Generate Pseudo-code from Source Code using Statistical Machine T...Learning to Generate Pseudo-code from Source Code using Statistical Machine T...
Learning to Generate Pseudo-code from Source Code using Statistical Machine T...Yusuke Oda
 
Tree-based Translation Models (『機械翻訳』§6.2-6.3)
Tree-based Translation Models (『機械翻訳』§6.2-6.3)Tree-based Translation Models (『機械翻訳』§6.2-6.3)
Tree-based Translation Models (『機械翻訳』§6.2-6.3)Yusuke Oda
 
複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳
複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳
複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳Yusuke Oda
 
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with MemoryShinagawa Seitaro
 
情報幾何勉強会 EMアルゴリズム
情報幾何勉強会 EMアルゴリズム 情報幾何勉強会 EMアルゴリズム
情報幾何勉強会 EMアルゴリズム Shinagawa Seitaro
 
ChainerによるRNN翻訳モデルの実装+@
ChainerによるRNN翻訳モデルの実装+@ChainerによるRNN翻訳モデルの実装+@
ChainerによるRNN翻訳モデルの実装+@Yusuke Oda
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 

Viewers also liked (14)

ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
 
Pattern Recognition and Machine Learning: Section 3.3
Pattern Recognition and Machine Learning: Section 3.3Pattern Recognition and Machine Learning: Section 3.3
Pattern Recognition and Machine Learning: Section 3.3
 
Encoder-decoder 翻訳 (TISハンズオン資料)
Encoder-decoder 翻訳 (TISハンズオン資料)Encoder-decoder 翻訳 (TISハンズオン資料)
Encoder-decoder 翻訳 (TISハンズオン資料)
 
翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)
翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)
翻訳精度の最大化による同時音声翻訳のための文分割法 (NLP2014)
 
Learning to Generate Pseudo-code from Source Code using Statistical Machine T...
Learning to Generate Pseudo-code from Source Code using Statistical Machine T...Learning to Generate Pseudo-code from Source Code using Statistical Machine T...
Learning to Generate Pseudo-code from Source Code using Statistical Machine T...
 
Tree-based Translation Models (『機械翻訳』§6.2-6.3)
Tree-based Translation Models (『機械翻訳』§6.2-6.3)Tree-based Translation Models (『機械翻訳』§6.2-6.3)
Tree-based Translation Models (『機械翻訳』§6.2-6.3)
 
複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳
複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳
複数の事前並べ替え候補を用いた句に基づく統計的機械翻訳
 
150829 kdd2015読み会
150829 kdd2015読み会150829 kdd2015読み会
150829 kdd2015読み会
 
含意要因となるテキスト中の表現と仮説の対を用いたテキスト含意認識
含意要因となるテキスト中の表現と仮説の対を用いたテキスト含意認識含意要因となるテキスト中の表現と仮説の対を用いたテキスト含意認識
含意要因となるテキスト中の表現と仮説の対を用いたテキスト含意認識
 
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
 
情報幾何勉強会 EMアルゴリズム
情報幾何勉強会 EMアルゴリズム 情報幾何勉強会 EMアルゴリズム
情報幾何勉強会 EMアルゴリズム
 
ChainerによるRNN翻訳モデルの実装+@
ChainerによるRNN翻訳モデルの実装+@ChainerによるRNN翻訳モデルの実装+@
ChainerによるRNN翻訳モデルの実装+@
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
 

Test

  • 2. 宇宙速度 ● 第1宇宙速度 ● 天体に墜落しないで 周回軌道に乗る(楕円運動)ための速度 ● 第2宇宙速度 ● 天体の重力を振り切って 外宇宙へ行く(双曲線運動)ための速度 ● 地球では・・・ ● この速度を数値的に求めてみる.
  • 3. 支配方程式 ● 次の条件を仮定すると,単純な2質点の運動で表せる. ● 地球は完全な球である ● 地球の密度は同心球分布である ● m≪M ● このとき,物体の座標pについて
  • 4. 支配方程式の変形 ● 式を使いやすくするために, 2階微分を1階微分に変形する. というベクトルを用いて,
  • 5. Runge-Kutta法 ● 微分方程式の数値解法 ● 現在の値から予測値を用いて次の値を計算 ● 割と精度が良い ● dx/dt = f(x)のとき, 4次Runge-Kutta法は        →→→
  • 6. 宇宙速度の算出 ● Runge-Kutta法によるシミュレーション結果から二分探索 によって宇宙速度を算出する. ● 二分探索で使用する条件・・・ ● 第1宇宙速度: – 未満: 軌道が地球に食い込む – 以上: 物体が半周する ● 第2宇宙速度: – 未満: 元の地点に帰ってくる – 以上: 無限遠に飛んでゆく ● 実際には無限遠の判定が難しいので, 地球半径の1000倍まで行ったところで打ち切る.
  • 7. 実験結果(1) ● シミュレーション環境・・・MATLAB 7.12.0上で検証 ● 定数 – 万有引力定数 G = 6.674×10-11 m3s-2/kg – 地球質量 M = 5.972×1024 kg – 地球半径 (赤道半径) R = 6.378×106 m ● 初期条件 – x=0 – y = R+1(赤道の1m上空) – vy = 0 ● vxを適当な値にして,地球に対して水平に打ち出す.
  • 8. 実験結果(1) ● シミュレーションによる物体の軌道
  • 9. 実験結果(2) ● 二分探索による宇宙速度の算出 第2宇宙速度 第1宇宙速度
  • 10. 実験結果(2) ● 最終的に得られた値: ● 第1宇宙速度: 7.9052 ~ 7.9053 [km/s] – 解析解: 7.905 [km/s] ● 第2宇宙速度: 11.1755 ~ 11.1770 [km/s] – 解析解: 11.18 [km/s] ● 4桁程度の範囲では,解析解と数値解がよく一致する. (もう少し詳しく計算してみると,第2宇宙速度に0.03%程度の定常誤差が出る) (探索条件に打ち切りを使っているため?)
  • 11. まとめ ● 地球の第1宇宙速度,第2宇宙速度を数値的に求める方法を 考案,プログラムを組んで実験した. ● 解析解との比較の結果,4桁程度の範囲でよく一致してい た. ● 第2宇宙速度の探索に問題があるので,よりよい方法を検 討する必要がある.