Submit Search
Upload
経済数学II 「第9章 最適化(Optimization)」
•
0 likes
•
271 views
W
Wataru Shito
Follow
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 22
Download now
Download to read offline
Recommended
演習II.第1章 ベイズ推論の考え方 Part 3.スライド
演習II.第1章 ベイズ推論の考え方 Part 3.スライド
Wataru Shito
西南学院大学経済学部 演習2 講義スライド(2021/8/23更新版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
演習II.第1章 ベイズ推論の考え方 Part 3.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 3.講義ノート
Wataru Shito
西南学院大学経済学部 演習2 講義ノート(2021/8/23更新版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
機械学習アルゴリズムと教師データの関係を表すのがバイアス・バリアンス分解であり、これによって機械学習の結果得られた識別や回帰システムの予測性能の傾向を把握する。
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Hiroshi Nakagawa
観測データから母集団の確率分布を学習するにあたって、観測データとして直接観測できない潜在変数(あるいは隠れ変数)がある場合の学習方法を説明する。この学習方法で特に重要なのはEMアルゴリズムである。
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
Wataru Shito
西南学院大学経済学部 演習2 講義ノート(2021/8/22修正版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
Shin Asakawa
第4回MachineLearningのための数学塾の資料です。
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
PRML上巻勉強会 at 東京大学の資料です。 この資料はChristopher M. Bishop 著「Pattern Recognition and Machine Learning」の日本語版「パターン認識と機械学習 上 - ベイズ理論による統計的予測」について補足説明を入れた上でなるべくわかりやすくしたものです。 本資料では第3章の前半、特に3.1節を中心に解説しています。 詳しくはこちらのサイト(外部)を御覧ください。 http://ibisforest.org/index.php?PRML
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
Daisuke Yoneoka
Recommended
演習II.第1章 ベイズ推論の考え方 Part 3.スライド
演習II.第1章 ベイズ推論の考え方 Part 3.スライド
Wataru Shito
西南学院大学経済学部 演習2 講義スライド(2021/8/23更新版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
演習II.第1章 ベイズ推論の考え方 Part 3.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 3.講義ノート
Wataru Shito
西南学院大学経済学部 演習2 講義ノート(2021/8/23更新版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
機械学習アルゴリズムと教師データの関係を表すのがバイアス・バリアンス分解であり、これによって機械学習の結果得られた識別や回帰システムの予測性能の傾向を把握する。
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Hiroshi Nakagawa
観測データから母集団の確率分布を学習するにあたって、観測データとして直接観測できない潜在変数(あるいは隠れ変数)がある場合の学習方法を説明する。この学習方法で特に重要なのはEMアルゴリズムである。
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
Wataru Shito
西南学院大学経済学部 演習2 講義ノート(2021/8/22修正版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
Shin Asakawa
第4回MachineLearningのための数学塾の資料です。
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
PRML上巻勉強会 at 東京大学の資料です。 この資料はChristopher M. Bishop 著「Pattern Recognition and Machine Learning」の日本語版「パターン認識と機械学習 上 - ベイズ理論による統計的予測」について補足説明を入れた上でなるべくわかりやすくしたものです。 本資料では第3章の前半、特に3.1節を中心に解説しています。 詳しくはこちらのサイト(外部)を御覧ください。 http://ibisforest.org/index.php?PRML
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
Daisuke Yoneoka
第4章 確率的学習---単純ベイズを使った分類
第4章 確率的学習---単純ベイズを使った分類
Wataru Shito
西南学院大学経済学部 演習1 講義ノート 講義ページ: http://courses.wshito.com/semi1/2020-datascience/index.html
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
基晴 出井
先日の某勉強会にて発表した資料がいい感じにまとめられたのでシェア。 一部保険数理業界向け。 MCMCもさることながら、我々の業界ではずいぶんと当たり前になってきた「パラメータリスク」という概念も流行ってほしいです。
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
Wataru Shito
西南学院大学経済学部 演習2 講義ノート(2021/8/22修正版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI/index.html
クラシックな機械学習入門 1 導入
クラシックな機械学習入門 1 導入
Hiroshi Nakagawa
今や古典的になった機械学習の入門スライドです。通信路モデルから始まり、ベイズ統計によるパラメタ-学習の簡単な例を説明しています。以後、続編が出ます。
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
Zansa第12回勉強会の資料 「PRMLからベイズの世界へ」
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
PRML上巻勉強会 at 東京大学の資料です 詳細:https://www.facebook.com/PRML.Tokyo
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
演習II.第1章 ベイズ推論の考え方 Part 2.スライド
演習II.第1章 ベイズ推論の考え方 Part 2.スライド
Wataru Shito
西南学院大学経済学部 演習2 講義スライド(2021/8/22修正版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
https://connpass.com/event/54301/
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
2012-06-15-トピックを考慮したソーシャルネットワーク上の情報拡散モデル
2012-06-15-トピックを考慮したソーシャルネットワーク上の情報拡散モデル
Yuya Yoshikawa
JSAI2012発表
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
Koji Yoshida
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
ベイズ最適化を中心とした能動学習のためのモデリングやアルゴリズムの解説,適用例の紹介
03_深層学習
03_深層学習
CHIHIROGO
ラビットチャレンジ 深層学習(day1,day2)
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
Daisuke Yoneoka
「ベイズ推定でパラメータリスクを捉える &優れたサンプラーとしてのMCMC」の実装例rstanコード
「ベイズ推定でパラメータリスクを捉える &優れたサンプラーとしてのMCMC」の実装例rstanコード
基晴 出井
別途資料「ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC」の実装例rstanコード
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
12/09/25 w8prml 学習会 パターン認識と機械学習 上 1.3節~1.6節 申し訳ありませんが、字の大きさが変になって改行がおかしかったり、式に画像データを使ってる部分がぼやけ気味だったりします。 (9/25)いくつか再び訂正をしましたので再アップします。主な修正箇所は (P28)効用関数最小化→最大化 (P51) log(24)/log(3)=log(8)=3 → log(24)/log(3)=2.892789.... (P57) 右下枠内のエントロピー低・高が逆だったのを訂正。 ・・・以上となります。
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
Hidekazu Oiwa
機械学習と深層学習の数理
機械学習と深層学習の数理
Ryo Nakamura
機械学習や深層学習(Deep Learning)に使われる数学をまとめたので公開します. 微積と線形代数の初歩的な知識があれば大丈夫です. 主なトピックは,誤差逆伝播法,重回帰モデル,正則化,CNN,ボルツマンマシン,RBN,強化学習などです.
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
線形回帰問題と最適化問題 回帰問題における外れ値問題 最小二乗法の問題点 ロバスト線形回帰 最適化問題としての回帰 問題最小二乗法 勾配降下法 LASSO回帰 優決定系におけるスパース回帰 講師: 東京都市大学 田中宏和 講義ビデオ: https://www.youtube.com/playlist?list=PLXAfiwJfs0jGOvZnwUdAykZvSdRFd7K2p
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
Akira Asano
関西大学総合情報学部 「応用数学(解析)」(担当:浅野晃)
More Related Content
What's hot
第4章 確率的学習---単純ベイズを使った分類
第4章 確率的学習---単純ベイズを使った分類
Wataru Shito
西南学院大学経済学部 演習1 講義ノート 講義ページ: http://courses.wshito.com/semi1/2020-datascience/index.html
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
基晴 出井
先日の某勉強会にて発表した資料がいい感じにまとめられたのでシェア。 一部保険数理業界向け。 MCMCもさることながら、我々の業界ではずいぶんと当たり前になってきた「パラメータリスク」という概念も流行ってほしいです。
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
Wataru Shito
西南学院大学経済学部 演習2 講義ノート(2021/8/22修正版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI/index.html
クラシックな機械学習入門 1 導入
クラシックな機械学習入門 1 導入
Hiroshi Nakagawa
今や古典的になった機械学習の入門スライドです。通信路モデルから始まり、ベイズ統計によるパラメタ-学習の簡単な例を説明しています。以後、続編が出ます。
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
Zansa第12回勉強会の資料 「PRMLからベイズの世界へ」
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
PRML上巻勉強会 at 東京大学の資料です 詳細:https://www.facebook.com/PRML.Tokyo
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
演習II.第1章 ベイズ推論の考え方 Part 2.スライド
演習II.第1章 ベイズ推論の考え方 Part 2.スライド
Wataru Shito
西南学院大学経済学部 演習2 講義スライド(2021/8/22修正版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
https://connpass.com/event/54301/
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
2012-06-15-トピックを考慮したソーシャルネットワーク上の情報拡散モデル
2012-06-15-トピックを考慮したソーシャルネットワーク上の情報拡散モデル
Yuya Yoshikawa
JSAI2012発表
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
Koji Yoshida
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
ベイズ最適化を中心とした能動学習のためのモデリングやアルゴリズムの解説,適用例の紹介
03_深層学習
03_深層学習
CHIHIROGO
ラビットチャレンジ 深層学習(day1,day2)
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
Daisuke Yoneoka
「ベイズ推定でパラメータリスクを捉える &優れたサンプラーとしてのMCMC」の実装例rstanコード
「ベイズ推定でパラメータリスクを捉える &優れたサンプラーとしてのMCMC」の実装例rstanコード
基晴 出井
別途資料「ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC」の実装例rstanコード
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
12/09/25 w8prml 学習会 パターン認識と機械学習 上 1.3節~1.6節 申し訳ありませんが、字の大きさが変になって改行がおかしかったり、式に画像データを使ってる部分がぼやけ気味だったりします。 (9/25)いくつか再び訂正をしましたので再アップします。主な修正箇所は (P28)効用関数最小化→最大化 (P51) log(24)/log(3)=log(8)=3 → log(24)/log(3)=2.892789.... (P57) 右下枠内のエントロピー低・高が逆だったのを訂正。 ・・・以上となります。
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
Hidekazu Oiwa
What's hot
(19)
第4章 確率的学習---単純ベイズを使った分類
第4章 確率的学習---単純ベイズを使った分類
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
クラシックな機械学習入門 1 導入
クラシックな機械学習入門 1 導入
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
演習II.第1章 ベイズ推論の考え方 Part 2.スライド
演習II.第1章 ベイズ推論の考え方 Part 2.スライド
20170422 数学カフェ Part1
20170422 数学カフェ Part1
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
2012-06-15-トピックを考慮したソーシャルネットワーク上の情報拡散モデル
2012-06-15-トピックを考慮したソーシャルネットワーク上の情報拡散モデル
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 9: Bernoulli Likelihood wit...
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
03_深層学習
03_深層学習
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
「ベイズ推定でパラメータリスクを捉える &優れたサンプラーとしてのMCMC」の実装例rstanコード
「ベイズ推定でパラメータリスクを捉える &優れたサンプラーとしてのMCMC」の実装例rstanコード
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
Similar to 経済数学II 「第9章 最適化(Optimization)」
機械学習と深層学習の数理
機械学習と深層学習の数理
Ryo Nakamura
機械学習や深層学習(Deep Learning)に使われる数学をまとめたので公開します. 微積と線形代数の初歩的な知識があれば大丈夫です. 主なトピックは,誤差逆伝播法,重回帰モデル,正則化,CNN,ボルツマンマシン,RBN,強化学習などです.
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
線形回帰問題と最適化問題 回帰問題における外れ値問題 最小二乗法の問題点 ロバスト線形回帰 最適化問題としての回帰 問題最小二乗法 勾配降下法 LASSO回帰 優決定系におけるスパース回帰 講師: 東京都市大学 田中宏和 講義ビデオ: https://www.youtube.com/playlist?list=PLXAfiwJfs0jGOvZnwUdAykZvSdRFd7K2p
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
Akira Asano
関西大学総合情報学部 「応用数学(解析)」(担当:浅野晃)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
Akira Asano
関西大学総合情報学部・応用数学(解析)(担当・浅野晃) http://racco.mikeneko.jp/Kougi/2022a/AMA/ 【第12回資料】 テキスト http://racco.mikeneko.jp/Kougi/2022a/AMA/2022a_ama12.pdf ハンドアウト http://racco.mikeneko.jp/Kougi/2022a/AMA/2022a_ama12_slide_hor.pdf 動画 https://youtu.be/Gjn-hZ_YlFE
第2回DARM勉強会
第2回DARM勉強会
Yoshitake Takebayashi
6 Info Theory
6 Info Theory
melvincabatuan
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第4回)』の投影資料となります。
代数トポロジー入門
代数トポロジー入門
Tatsuki SHIMIZU
代数トポロジーと言いつつ morse 理論やる人 #人 次回:persistent homology と TDA の予習
PRML セミナー
PRML セミナー
sakaguchi050403
セミナー資料
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
PRML勉強会2013冬 第7回 3章線形回帰モデルの3.2〜3.4です
Casual learning machine learning with_excel_no2
Casual learning machine learning with_excel_no2
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第2回)』 の投影資料となります。
PRML chapter7
PRML chapter7
Takahiro (Poly) Horikawa
PRML(Pattern Recognition and Machine Learning) chapter 7
回帰
回帰
Shin Asakawa
第2回 TensorFlowと機械学習に必要な数学を基礎から学ぶ会資料 回帰編
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
Takahiro (Poly) Horikawa
2011/2/19に開催された第9回コンピュータービジョン最先端ガイド勉強会の発表資料です。2巻3.4のSVMについての解説。
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
keiodig
2022/11/18開催の第8回スキル養成講座講義資料です。
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
tutorial for statistical learning theory 統計的学習理論のチュートリアル
経験過程
経験過程
hoxo_m
Watanabe理論勉強会 第七回 資料 タイトル詐欺で経験過程まで行っておらず、法則収束の説明まで
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
Tomoki Yoshida
CVXPYの使い方の説明とラグランジュ双対問題について説明 ※縮小表示だと日本語が消えることがあるので全画面で御覧ください
Convex optimization
Convex optimization
Simossyi Funabashi
Convex optimization(https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf)の1~4章の内容を紹介した. 主に扱ったトピックは凸集合, 凸関数, 凸最適化の定義や例で内容は初心者向け. 気になった人は是非原著に当たって欲しい.
Dive into XGBoost.pdf
Dive into XGBoost.pdf
Yuuji Hiramatsu
A naive explanation of Boosting family including XGBoost. Please let me know if you find something wrong or have a question.
Similar to 経済数学II 「第9章 最適化(Optimization)」
(20)
機械学習と深層学習の数理
機械学習と深層学習の数理
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
第2回DARM勉強会
第2回DARM勉強会
6 Info Theory
6 Info Theory
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4
代数トポロジー入門
代数トポロジー入門
PRML セミナー
PRML セミナー
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Casual learning machine learning with_excel_no2
Casual learning machine learning with_excel_no2
PRML chapter7
PRML chapter7
回帰
回帰
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
経験過程
経験過程
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
Convex optimization
Convex optimization
Dive into XGBoost.pdf
Dive into XGBoost.pdf
More from Wataru Shito
第3章 遅延学習---最近傍法を使った分類
第3章 遅延学習---最近傍法を使った分類
Wataru Shito
西南学院大学経済学部 演習1 講義ノート 講義ページ: http://courses.wshito.com/semi1/2020-datascience/index.html
統計的推定の基礎 2 -- 分散の推定
統計的推定の基礎 2 -- 分散の推定
Wataru Shito
西南学院大学経済学部 演習1 講義ノート 講義ページ: https://courses.wshito.com/semi1/2020-datascience/index.html
統計的推定の基礎 1 -- 期待値の推定
統計的推定の基礎 1 -- 期待値の推定
Wataru Shito
西南学院大学経済学部 演習1 講義ノート 講義ページ: https://courses.wshito.com/semi1/2020-datascience/index.html
マクロ経済学I 「第8章 総需要・総供給分析(AD-AS分析)」
マクロ経済学I 「第8章 総需要・総供給分析(AD-AS分析)」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
マクロ経済学I 「第10章 総需要 II.IS-LM分析とAD曲線」
マクロ経済学I 「第10章 総需要 II.IS-LM分析とAD曲線」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)
Wataru Shito
西南学院大学経済学部 演習1 講義ノート 講義ページ: http://courses.wshito.com/semi1/2020-datascience/index.html ***ビューワで文字化けするときはビューワ画面を最大化すると治ることがあります***
第8回 大規模データを用いたデータフレーム操作実習(2)
第8回 大規模データを用いたデータフレーム操作実習(2)
Wataru Shito
西南学院大学経済学部 演習1 講義ノート 講義ページ: http://courses.wshito.com/semi1/2020-datascience/index.html ***ビューワで文字化けするときはビューワ画面を最大化すると治ることがあります***
経済数学II 「第12章 制約つき最適化」
経済数学II 「第12章 制約つき最適化」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
マクロ経済学I 「第9章 総需要 I」
マクロ経済学I 「第9章 総需要 I」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
経済数学II 「第11章 選択変数が2個以上の場合の最適化」
経済数学II 「第11章 選択変数が2個以上の場合の最適化」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
マクロ経済学I 「第6章 開放経済の長期分析」
マクロ経済学I 「第6章 開放経済の長期分析」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
経済数学II 「第8章 一般関数型モデルの比較静学」
経済数学II 「第8章 一般関数型モデルの比較静学」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
マクロ経済学I 「第4,5章 貨幣とインフレーション」
マクロ経済学I 「第4,5章 貨幣とインフレーション」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
マクロ経済学I 「第3章 長期閉鎖経済モデル」
マクロ経済学I 「第3章 長期閉鎖経済モデル」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
経済数学II 「第7章 微分法とその比較静学への応用」
経済数学II 「第7章 微分法とその比較静学への応用」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
経済数学II 「第6章 比較静学と導関数の概念」
経済数学II 「第6章 比較静学と導関数の概念」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
マクロ経済学I 「マクロ経済分析の基礎知識」
マクロ経済学I 「マクロ経済分析の基礎知識」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
経済数学II 「第5章 線型モデルと行列代数 II」
経済数学II 「第5章 線型モデルと行列代数 II」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
マクロ経済学I 「第2章 マクロ経済学のデータ」
マクロ経済学I 「第2章 マクロ経済学のデータ」
Wataru Shito
西南学院大学経済学部 マクロ経済学I 講義ノート 講義ページ: http://courses.wshito.com/
経済数学II 「第3章 経済学における均衡分析」
経済数学II 「第3章 経済学における均衡分析」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
More from Wataru Shito
(20)
第3章 遅延学習---最近傍法を使った分類
第3章 遅延学習---最近傍法を使った分類
統計的推定の基礎 2 -- 分散の推定
統計的推定の基礎 2 -- 分散の推定
統計的推定の基礎 1 -- 期待値の推定
統計的推定の基礎 1 -- 期待値の推定
マクロ経済学I 「第8章 総需要・総供給分析(AD-AS分析)」
マクロ経済学I 「第8章 総需要・総供給分析(AD-AS分析)」
マクロ経済学I 「第10章 総需要 II.IS-LM分析とAD曲線」
マクロ経済学I 「第10章 総需要 II.IS-LM分析とAD曲線」
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)
第8回 大規模データを用いたデータフレーム操作実習(2)
第8回 大規模データを用いたデータフレーム操作実習(2)
経済数学II 「第12章 制約つき最適化」
経済数学II 「第12章 制約つき最適化」
マクロ経済学I 「第9章 総需要 I」
マクロ経済学I 「第9章 総需要 I」
経済数学II 「第11章 選択変数が2個以上の場合の最適化」
経済数学II 「第11章 選択変数が2個以上の場合の最適化」
マクロ経済学I 「第6章 開放経済の長期分析」
マクロ経済学I 「第6章 開放経済の長期分析」
経済数学II 「第8章 一般関数型モデルの比較静学」
経済数学II 「第8章 一般関数型モデルの比較静学」
マクロ経済学I 「第4,5章 貨幣とインフレーション」
マクロ経済学I 「第4,5章 貨幣とインフレーション」
マクロ経済学I 「第3章 長期閉鎖経済モデル」
マクロ経済学I 「第3章 長期閉鎖経済モデル」
経済数学II 「第7章 微分法とその比較静学への応用」
経済数学II 「第7章 微分法とその比較静学への応用」
経済数学II 「第6章 比較静学と導関数の概念」
経済数学II 「第6章 比較静学と導関数の概念」
マクロ経済学I 「マクロ経済分析の基礎知識」
マクロ経済学I 「マクロ経済分析の基礎知識」
経済数学II 「第5章 線型モデルと行列代数 II」
経済数学II 「第5章 線型モデルと行列代数 II」
マクロ経済学I 「第2章 マクロ経済学のデータ」
マクロ経済学I 「第2章 マクロ経済学のデータ」
経済数学II 「第3章 経済学における均衡分析」
経済数学II 「第3章 経済学における均衡分析」
経済数学II 「第9章 最適化(Optimization)」
1.
第9章 最適化 Optimization 市東
亘 shito@seinan-gu.ac.jp 2021 年 7 月 4 日 今までの分析 経済モデルの均衡が, 、 あ 、 る方程式体系で与えられたとき,外生的ショ ックが均衡点をどのように動 かすかという比較静学分析. 第4部 最適化問題とは? 均衡の描写に用いられてきた方程式体系は一体どうやって導くのか,その方法を学ぶ. 方程式体系 = 均衡条件 市場均衡条件 = 主体均衡条件 = 事後的な調和によって成立.無目的. 経済を構成する主体の目的 or 目標を 意識的に達成することによって成立. • 第4部ではとくに,最適状態を伝統的な手法 = 微分法によって求める. • 新しい手法 = 数理計画法は第6部で扱われる. (本講義では扱わない. ) 本章の目的 • 1 変数関数の最適化を学ぶ. • 関数の最大化,最小化の必要条件と十分条件を理解する. • 2 階の微分(2 次導関数)を学ぶ. • 最適化問題を応用して,企業の最適行動を導出できるようにする. • マクローリン級数とテイラー級数を理解する. • テイラー展開と線型近似を理解する. • n 次導関数テストを用いて関数の最大化,最小化の十分条件をテストできるようにする. 1
2.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 1 最適値と極値 (1) 「経済学」= ::::::::::::: ある特定の基準に照らして,利用可能な方法の中で最も優れたものを選ぶとい う選択の科学. (2) ある特定の基準とは? あるものを最大にするという目的 =⇒ 企業の利潤,消費者の効用など. あるものを最小にするという目的 =⇒ 生産コスト,支出の最小化など. (3) 最大値,最小値 =⇒ と呼ぶ. ある関数の最大値を求めても,その関数がある目的を達成する行動を記述しているとは限ら ない.それは,問題設定者が関数にどのような意味付けを行ったかに依存する.数学上では, 最大値や最小値は目的を最大にするとか最小にするといった最適性の意味が含まれていない ため,単に極値と呼ぶ. (4) 最適化問題 • Step 1.目的関数 (objective function) を設定する. (例) max Q . π(Q) = R(Q) − C(Q) • Step 2. 目的関数を最大にするような選択変数(独立変数と同じ)の値を求める. (5) 本章の最適化問題 1 変数のみの目的関数,y = f(x),についてのみ考える.以後,f(·) は連続でかつ,連続な 導関数を持つと仮定する. 2 相対的最大および最小 — 1 次導関数テスト 西南学院大学 経済数学 II 2 担当 市東 亘
3.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 傾きゼロ = その場所では停止の状態で,上昇または下降の傾向無し. ⇒ 点と呼ぶ. 極値か変曲点の見分け方 • 方法 1.停留点の前後の傾きをチェ ック.=⇒ こちらの方がスマート. • 方法 2.停留点の前後の y の値をチェ ック. p.276 例1 y = f(x) = x3 − 12x2 + 36x + 8 の極値を求めよ. 西南学院大学 経済数学 II 3 担当 市東 亘
4.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 課題 (1) テキスト pp.269–278 を読む. (2) 練習問題 9.2 (p.278),1–4. 問 4 のヒント.T = ϕ(x) を総関数とするなら,限界関数 M は M = dT/dx = ϕ′ (x).平均関 数 A は A = T/x = ϕ(x)/x. 3 2 次および高次の導関数 停留点の前後の導関数の値を調べるのは煩雑.また,関数型が明示的に与えられていないとこの 方法は使えない.ここでは,もっと体系的で汎用的な極値判別方法を考える. • 極大,極小,変曲点,ともに 1 次導関数はゼロ. 従って, 「::::::::::::::: 1 次導関数 = ゼロ」は極大,極小を見つけるのに十分ではない. ↑ 極大 or 極小であるための • 十分条件を得るには,2 次導関数の符号を調べる必要がある. 西南学院大学 経済数学 II 4 担当 市東 亘
5.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 導関数の導関数 2 次導関数 = f(x) を 2 回微分したもの. と書く. 同様に高階の導関数が定義できる. f′′′ (x), f′′′′ (x) d3 y dx3 , d4 y dx4 など. (例 1)y = f(x) = 4x4 − x3 + 17x2 + 3x − 1 の 1 次から 5 次までの導関数を求めよ. 2 次導関数の解釈 f′ (x) = dy dx x が変化したら y がどのように変化するか. f′′ (x) = df′ (x) dx x が変化したら がどのように変化するか. x が変化したら がどのように変化するか. 西南学院大学 経済数学 II 5 担当 市東 亘
6.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 x y x0 x < x0 の時 f′ (x) 0 f′′ (x) 0 x = x0 の時 f′ (x0) 0 f′′ (x0) 0 x > x0 の時 f′ (x) 0 f′′ (x) 0 x y x1 x < x0 の時 f′ (x) 0 f′′ (x) 0 x = x0 の時 f′ (x0) 0 f′′ (x0) 0 x > x0 の時 f′ (x) 0 f′′ (x) 0 課題 (1) テキスト pp.279–285 を読む. (2) 練習問題 9.3 (p.285),1–5. 西南学院大学 経済数学 II 6 担当 市東 亘
7.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 4 2 次導関数テスト (1) 相対的(局所的)な極値についての 2 次導関数テスト 関数 f(x) が x0 において,相対的な極値であるためには, f′ (x0) = 0 (必要条件 or 1 階の条件) さらに, i) もし,f′′ (x0) < 0 であれば,x0 で ii) もし,f′′ (x0) > 0 であれば,x0 で 極大,極小の 条件. ( 条件) iii) もし,f′′ (x0) = 0 なら x y A A 点でも f′ (x) = 0,f′′ (x) = 0.A 点は 極大にも極小にもなり得る. x y y = x4 f′ (x) = 4x3 ,f′′ (x) = 12x2 .x = 0 で最 小だが f′′ (x) = 0. x x y dy/dx B B 点では f′ (x) = 0,f′′ (x) = 0.B 点は変曲点. 以上のように,f′′ (x0) = 0 の場合,x = x0 で極大,極小かは決定できない.この様な場合 には,3 次ないしより高次の導関数を含む別のテストを用いなければならない. 西南学院大学 経済数学 II 7 担当 市東 亘
8.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 (2) 絶対的(大域的)な極値について. 関数 f(x) が x0 において f′ (x0) = 0(必要条件 or 1 階の条件)ならば, i) f′′ (x0) < 0 for all x =⇒ x0 で ii) f′′ (x0) > 0 for all x =⇒ x0 で 十分条件. 5 最適化問題の企業行動分析(ミクロ経済学)への応用 企業の利潤最大化から供給曲線を導出する. (1) ステップ 1.目的関数を設定する. 利潤 = 収入 − 費用 π(Q) = P · Q − C(Q) (2) ステップ 2.選択変数を決める. Q.完全競争の下では P は所与. (3) ステップ 3.目的関数を選択変数で最大化する. • 1 階の条件 • 2 階の条件(P = MC では最大と最小の 2 通り考えられる) 西南学院大学 経済数学 II 8 担当 市東 亘
9.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 Q Q Q R, C π MC, P (4) 補足 テキストでは,収入を R = PQ というふうに線型で仮定せず,R = R(Q) というふうに一 般化している.この時,利潤最大化の一階条件は MR = MC だが,R(Q) = PQ の時には, MR = R′ (Q) = P となり,上で用いた例と同じ結果になる. 西南学院大学 経済数学 II 9 担当 市東 亘
10.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 独占企業の利潤最大化 • 独占企業は価格をコントロールできる. (e.g. 生産量を減らして価格をつり上げるなど. ) 需要関数 Q = D(P) 消費者の行動 逆需要関数 P = D−1 (Q) 企業の生産量に応じて消費者が幾らの 価格をつけるか. • 逆需要関数を P = P(Q) とおき,独占企業の目的関数を設定する. π = • 1 階の条件 (f.o.c.) 完全競争企業の収入 PQ を R とおけば,利潤最大化の条件は となり,独占企 業の利潤最大化条件と一致する.ただし,完全競争の時は MR = だったのに対し, 独占企業の場合には MR = である.いずれにしても,収入関数を特定 化せず R = R(Q) とおけば,完全競争・独占的競争市場のいずれのケースにおいても使える 1 階の条件を得ることが出来る. 西南学院大学 経済数学 II 10 担当 市東 亘
11.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 Pm > P∗ Qm < Q∗ } 独占企業は,完全競争時よりも生産量を減らし,価格を吊上げることに よって,完全競争時よりも高い利潤を実現することが出来る. テキスト p.291 「物品税収入の最大化」のモデルの考察1 このモデルの企業は独占企業.したがって,テキストの R = −αQ2 + βQ (α, β > 0) は, 「収入 = 価格 × 供給量」に分解すると, R = P(Q) · Q = で, 逆需要関数 P = P(Q)は, であることが分かる. この式は, 確 かに右下がりの需要曲線の性質を満たしている. ちなみに, 需要関数は, である. 1テキストの費用関数の右辺の C は誤植で,正しくは小文字の c. 西南学院大学 経済数学 II 11 担当 市東 亘
12.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 費用関数についての補足(テキスト p.293) 短期の費用関数 C = aQ3 + bQ2 + cQ + d 固定費用 d > 0 あり 長期の費用関数 Cℓ = eQ3 + fQ2 + gQ 固定費用なし 可変費用 = 総費用 − 固定費用 VC = C(Q) − d 平均可変費用 AVC = C(Q) − d Q 課題 (1) テキスト pp.285–295 を読む. (2) 練習問題 9.4 (p.295),1–6. 6 マクローリン級数とテイラー級数 (1) 多項関数のマクローリン級数 (Maclaurian series) f(x) = a0 + a1x + a2x2 + a3x3 + · · · + anxn を展開する. f′ (x) = a1 + 2a2x + 3a3x2 + · · · + nanxn−1 f′′ (x) = f′′′ (x) = . . . f(n) (x) = 西南学院大学 経済数学 II 12 担当 市東 亘
13.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 上の式をゼロで評価する. f′ (0) = f′′ (0) = f′′′ (0) = . . . f(n) (0) = すなわち, a1 = f′ (0) 1! , a2 = f′′ (0) 2! , a3 = f′′′ (0) 3! , · · · , an = f(n) (0) n! 故に以下のマクローリン級数を得る. f(x) = f(0) 0! + f′ (0) 1! x + f′′ (0) 2! x2 + f′′′ (0) 3! x3 + · · · + f(n) (0) n! xn 展開に用いた導関数を x = 0 で評価しているので, 「x = 0 で展開した」と言う. p.297 例 1 f(x) = 2 + 4x + 3x2 のマクローリン級数は? 西南学院大学 経済数学 II 13 担当 市東 亘
14.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 (2) 多項関数のテイラー級数 (Taylor series) • マクローリン級数は,多項関数を x = 0 において展開した. • 任意の点 x0 において展開することも出来る =⇒ テイラー級数 分かり易いように,まず 2 次関数の展開を行う. f(x) = a0 + a1x + a2x2 展開する任意の点を x0 とおくと,変数 x は x0 からの乖離 δ を用いて,x = x0 + δ と表すこ とが出来る.したがって, f(x) = a0 + a1x + a2x2 = a0 + a1(x0 + δ) + a2(x0 + δ)2 f′ (x) = f′′ (x) = ここで,x0 はある固定された値.したがって,f(x) は δ の関数になる.つまり,δ が動くこ とによって,任意の x が表され f(x) が定義される.上の式を δ の関数として書き表すと, f(x) ≡ g(δ) = a0 + a1(x0 + δ) + a2(x0 + δ)2 f′ (x) ≡ g′ (δ) = a1 + 2a2(x0 + δ) f′′ (x) ≡ g′′ (δ) = 2a2 ここで,g(δ) を δ = 0 でマクローリン級数に展開する. g(δ) = 上式の考察 (a) x = x0 + δ と δ = 0 より,x = x0.したがって, g(0) = f(x0) g′ (0) = f′ (x0) g′′ (0) = f′′ (x0) (b) 上式の δ は,x = x0 + δ より,δ = x − x0 西南学院大学 経済数学 II 14 担当 市東 亘
15.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 以上 2 点を考慮すると,g(δ) のマクローリン級数から以下を得る. g(δ) = f(x) = これが,f(x) を任意の点 x0 で展開した時のテイラー級数.より一般的に n 次式のテイラー 級数は以下で表される. f(x) = f(x0) 0! + f′ (x0) 1! (x − x0) + f′′ (x0) 2! (x − x0)2 + f′′′ (x0) 3! (x − x0)3 + · · · + f(n) (x0) n! (x − x0)n 例題 f(x) = 2 + 4x + 3x2 を x0 でテイラー展開し,f(x) をテイラー級数で表しなさい. 西南学院大学 経済数学 II 15 担当 市東 亘
16.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 (3) 任意の関数の展開 テイラーの定理 任意の関数 ϕ(x) は,x = x0 において有限で連続的な導関数を必要な階数まで持てば, 任意の定数 n に関して,次のように展開できる. ϕ(x) = [ ϕ(x0) 0! + ϕ′ (x0) 1! (x − x0) + ϕ′′ (x0) 2! (x − x0)2 + · · · + ϕ(n) (x0) n! (x − x0)n ] + Rn ≡ Pn + Rn ここで,Pn は n 次の多項式 (polynomial) で,Rn は剰余項 (remainder) である.この 式を「剰余項のあるテイラー級数」と呼ぶ. 考察 (a) n 次の多項式 Pn は n + 1 項から成る. (b) ϕ(x) は,a0 + a1x + a2x2 + · · · + anxn の形の多項式である必要はない. (c) n が大きければ大きいほど,多くの項が Pn に現れるため,Pn や Rn の値は n に依存 する. (d) ϕ(x) = Pn + Rn は,ϕ(x) を Pn で近似した場合,Rn の誤差を伴うと考えられる. n = 1 の時 =⇒ ϕ(x) = ϕ(x0) + ϕ′ (x0)(x − x0) + R1 = P1 + R1 P1 は 1 次式で,ϕ(x) の線型近似となる. n = 2 の時 =⇒ ϕ(x) = ϕ(x0) + ϕ′ (x0)(x − x0) + ϕ′′ (x0) 2 (x − x0)2 + R2 = P2 + R2 P2 は 2 次式で,ϕ(x) の 2 次近似となる. 例題 先ほど x0 でテイラー展開した f(x) = 2 + 4x + 3x2 を,1 階の微分までの展開で終わらせ, 剰余項と合わせた形で書き表しなさい.この時の剰余項を求めなさい. 西南学院大学 経済数学 II 16 担当 市東 亘
17.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 (4) 剰余項と線型近似の意味 f(x) x f(x) = f(x0) + f′ (x0)(x − x0) + R1 f(x0) + f′ (x0)(x − x0) x0 x1 (5) 剰余項のラグランジュ形式 剰余項 Rn はテイラー展開において,n + 1 階以上の微分がゼロになるまでの項を全て含ん だものであるが,ある定数 p を用いて次の 1 項で必ず表現できる. Rn = ϕ(n+1) (p) (n + 1)! (x − x0)n+1 ただし,p は導関数 ϕ(n+1) を評価するある点で,x と x0 の間の値をとる. 考察 • 上の公式は,Rn が右辺の形で書き表されると言っているだけで,p の値の求め方は分 からない. • したがって,Rn の具体的な値は求まらないが,Rn の符号だけ知りたい時には,n + 1 階以上の非ゼロの微分係数からなる項を全て調べる必要がないため便利な形式である. • n = 0 の簡単なケースを考えると,平均値の定理と同じ. ϕ(x) = P0 + R0 = ϕ(x0) + ϕ′ (p)(x − x0) ↔ ϕ(x) − ϕ(x0) = ϕ′ (p)(x − x0) ↔ ϕ′ (p) = ϕ(x) − ϕ(x0) x − x0 西南学院大学 経済数学 II 17 担当 市東 亘
18.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 x x y y = f(x) x0 p 課題 (1) テキスト pp.296–304 を読む. (2) 練習問題 9.5 (p.304),1–3. 7 1 変数関数の相対的極値に関する n 次導関数テスト 2 次導関数テストで 2 階の微分がゼロになった場合,極大 or 極小が判断できないと学んだ.テ イラー級数を用いると,もっと高次の導関数テストを行うことが出来る. (1) テイラー展開と相対的極値 定義: 相対的極値 関数 f(x) は x0 の左右いずれの側であれ,それにごく近い x の値に対して, もし f(x) − f(x0) が負(正)であれば,x0 で極大(極小)になる. 西南学院大学 経済数学 II 18 担当 市東 亘
19.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 x1 x0 x2 x y y = f(x) f(x0) f(x1) f(x2) x0 で極大のケース f(x) − f(x0) < 0 x1 x0 x2 x y y = f(x) f(x0) f(x1) f(x2) x0 で極小のケース f(x) − f(x0) > 0 剰余項のラグランジュ形式を用いると,任意の関数 f(x) に対して,f(x) − f(x0) は以下のよ うに書き表せる. f(x) − f(x0) = f′ (x0)(x − x0) + f′′ (x0) 2! (x − x0)2 + · · · + f(n) (x0) n! (x − x0)n + f(n+1) (p) (n + 1)! (x − x0)n+1 この式を用いて f(x) − f(x0) の符号を確定できれば,上の相対的極値のグラフで示したよう に,極大・極小が判断できる. (2) ある特定のケースにおける n 次導関数テスト ケース 1 f′ (x0) ̸= 0 ⇒ 1 階のテストでは極値にならない! 1 階の導関数が剰余項になるように n = で展開する. f(x) = • x は x0 の近傍なので,f′ (x0) と f′ (p) は同符号になり f′ (p) ̸= 0 が言える2 . • 右辺の符号は,x が x0 の右と左,すなわち,x1 < x0 < x2 なる x1, x2 で変化する. 2n 次導関数テストは x0 の近傍で行っているため,x は x0 の近傍にある.p はその x と x0 の間にある.関数の連続 性から,導関数 f′(x0) はその左側極限と右側極限が一致しなければならず,その近傍にある f′(p) の符号も x0 の左右で 変化することなく f′(x0) と一致しなければならない. 西南学院大学 経済数学 II 19 担当 市東 亘
20.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 =⇒ 左辺の符号も変化する. =⇒ 相対的極値ではない. (1 階のテストと同じ結果!) ケース 2 f′ (x0) = 0; f′′ (x0) ̸= 0 2 階の導関数が剰余項になるように n = で展開する. f(x) = f′′ (p) と f′′ (x0) の符号は同じなので, f(x) − f(x0) < 0 ⇐⇒ f′′ (x0) 0 ⇐⇒ x0 で f(x) − f(x0) > 0 ⇐⇒ f′′ (x0) 0 ⇐⇒ x0 で これは,f′ (x0) = 0 の時の 2 次導関数テストと同じ. ケース 3 f′ (x0) = f′′ (x0) = 0 ::::::::: .しかし,f′′′ (x0) ̸= 0 2 次導関数テストが使えない. 3 次導関数が剰余項になるように n = で展開する. f(x) = 西南学院大学 経済数学 II 20 担当 市東 亘
21.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 f(x0) f(x1) f(x2) x0 x1 x2 x y y = f(x) f′ (x0) = f′′ (x0) = 0 f(x) − f(x0) の符号が変化 するので極値ではない.変 曲点になる. 西南学院大学 経済数学 II 21 担当 市東 亘
22.
www.seinan-gu.ac.jp/˜shito 2021 年
7 月 4 日(10:11) 更新版 ケース 4 f′ (x0) = f′′ (x0) = · · · = f(n−1) (x0) = 0.しかし,f(n) (x0) ̸= 0 f(x) − f(x0) = • n が奇数なら,x が x0 の左か右かで (x − x0)n の符号が変わる.=⇒ x0 は変曲点. • n が偶数なら,(x − x0)n は常に正.左辺の符号は,f(n) (x0) と同じ符号になる. f(n) (x0) > 0 =⇒ x0 で f(n) (x0) < 0 =⇒ x0 で (3) n 次導関数テスト f′ (x0) = 0 となる停留点において,x0 での最初の非ゼロの導関数が n 次導関数 f(n) (x0) で あるならば,f(x0) の値を持つ停留点は, (a) n が偶数かつ f(n) (x0) > 0 なら極小. (b) n が偶数かつ f(n) (x0) < 0 なら極大. (c) n が奇数なら変曲点. 課題 (1) テキスト pp.305–309 を読む. (2) 練習問題 9.6,1–2. 西南学院大学 経済数学 II 22 担当 市東 亘
Download now