Submit Search
Upload
猫でも分かりたい線形回帰の自由度
•
2 likes
•
4,061 views
Y
YukinoriKambe
Follow
猫でも分かりたい線形回帰(重回帰分析)の自由度について解説してみました
Read less
Read more
Report
Share
Report
Share
1 of 14
Download now
Download to read offline
Recommended
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
Classi.corp
mcmcをPythonで行うためのパッケージ比較についての話
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
1/24 パンハウスゼミ
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
Masashi Komori
日本社会心理学会第6回春の方法論セミナー「社会心理学者のための時系列分析入門」小森担当分.下記リンク「時系列地獄めぐりMAP.pdf」と一緒にご覧ください https://drive.google.com/file/d/1mr73_49oTWHp7yiGrqUITOWQMTgaqmFi/view?usp=sharing
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
因果推論の基礎
因果推論の基礎
Hatsuru Morita
法社会学会関東支部で,2014年12月13日に報告。 『実証分析入門――データから因果関係を読み解く作法』の後半で展開されている,因果推論を説明
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
第23回情報論的学習理論と機械学習研究会 (IBISML)
WAICとWBICのご紹介
WAICとWBICのご紹介
Tomoki Matsumoto
Introduction to WAIC and WBIC
Recommended
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
Classi.corp
mcmcをPythonで行うためのパッケージ比較についての話
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
1/24 パンハウスゼミ
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
Masashi Komori
日本社会心理学会第6回春の方法論セミナー「社会心理学者のための時系列分析入門」小森担当分.下記リンク「時系列地獄めぐりMAP.pdf」と一緒にご覧ください https://drive.google.com/file/d/1mr73_49oTWHp7yiGrqUITOWQMTgaqmFi/view?usp=sharing
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
因果推論の基礎
因果推論の基礎
Hatsuru Morita
法社会学会関東支部で,2014年12月13日に報告。 『実証分析入門――データから因果関係を読み解く作法』の後半で展開されている,因果推論を説明
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
第23回情報論的学習理論と機械学習研究会 (IBISML)
WAICとWBICのご紹介
WAICとWBICのご紹介
Tomoki Matsumoto
Introduction to WAIC and WBIC
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
学生向けの解説
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
HijiyamaR#3で発表しました。 階層ベイズを使った場合に,最尤法のAICと結果が大きく異なります。その問題についてどのように考えたらいいかについて発表しました。
最適輸送入門
最適輸送入門
joisino
IBIS 2021 https://ibisml.org/ibis2021/ における最適輸送についてのチュートリアルスライドです。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-ru-men
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
第4回 統計・機械学習若手シンポジウム(11/15)発表資料
Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
広島ベイズ塾夏合宿で発表したStanコードの書き方中級編です。 回帰分析から,一般化線形モデル,欠損値のあるモデル,潜在変数があるモデル,ゼロ過剰分布,混合分布モデルを扱いました。
最適化超入門
最適化超入門
Takami Sato
TokyoWebMining #40のトーク3の資料です
Graphic Notes on Linear Algebra and Data Science
Graphic Notes on Linear Algebra and Data Science
Kenji Hiranabe
すうがく徒のつどい、9/19 にて発表バージョン。 講演動画はこちら。 https://www.youtube.com/watch?v=eR3JvijvjW8 オリジナル論文はこちら。 https://github.com/kenjihiranabe/The-Art-of-Linear-Algebra/blob/main/The-Art-of-Linear-Algebra.pdf 1つ1つの技術解説はこちら。 各々の分解等のトピックス解説は、Qiita に詳しくしてあります。 https://qiita.com/kenjihiranabe/items/bfa9cd68bb355afc56b7
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
ベイズ最適化を中心とした能動学習のためのモデリングやアルゴリズムの解説,適用例の紹介
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
2019年6月28日の明治大学での講義資料です。 できるだけ数式を使わずに『機械学習のおさらい』『自動ハイパーパラメタ最適化』『Optuna の使い方』『ベイズ最適化の応用事例』について説明しています。 ●Optuna : https://github.com/pfnet/optuna
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan)第二回における,第四章の発表資料です
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
Stanの初心者が基本的な統計モデルを実行するまでの解説です。プログラミング初心者向けに書いているので,やや説明が遠回りなところもあります。
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
第20回ステアラボ人工知能セミナー https://stair.connpass.com/event/109983/ 【講演動画】 https://youtu.be/Fgza_C6KphU 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演の前半ではまず近年の代表的な研究について紹介する。後半では、発表者の最近の研究として「ランダムフォレストの簡略化」と「モデル列挙」について紹介する。
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
日本語での理論的な資料があまりにも少ないので一応作ってみました。大きなミスはないと思いますが、厳密な議論は飛ばしたりしています。 11/6 リバイズしました
Rの高速化
Rの高速化
弘毅 露崎
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
STAIR Lab, Chiba Institute of Technology
講演者: 林克彦 先生 (NTTコミュニケーション科学基礎研究所) 概要: 情報検索, 自然言語処理, バイオインフォマティクスなどの分野では知識グラフの構築が活発に行われてきた. 知識グラフでは知識をドメイン内の概念と概念の間の関係で記述し, それをグラフとして表現する. 例えば, 語彙間の関係を記述した WordNet や Freebase は知識グラフの代表的な例であり, 情報抽出, 質問応答などへの応用が期待されている. このような知識グラフは一般に大規模であるが, 本来登録されているべき知識の多くが欠落しているなど不完全であることが知られている. そのため, 近年では関係データ学習/リンク予測法を拡張することで, このような欠落を自動的に補完する技術が研究されてきた. 知識グラフの関係データ学習は一般に3次隣接テンソルの低ランク近似 (埋め込み) の問題として解かれるが, 知識グラフ特有の問題から CP 分解などの単純なテンソル分解では上手くモデル化できないことがわかってきている. ここでは知識グラフ特有の問題について整理し, その問題を克服するために提案されたいくつかの手法についてまとめる.
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
統計的学習の基礎 勉強会資料 (8月23日)
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。
Fourier analysis on symmetric group
Fourier analysis on symmetric group
HanpenRobot
対称群上のフーリエ解析のメモです. やっぱり群の表現論で一番大事なのは”表現行列の大直交性定理”ですね! これで,有限群上の直交関数系が分かります!
表現論 ゼミ資料
表現論 ゼミ資料
HanpenRobot
武井研 表現論 ゼミ資料 May 11 Wednesday 2016 fixed.
More Related Content
What's hot
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
学生向けの解説
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
HijiyamaR#3で発表しました。 階層ベイズを使った場合に,最尤法のAICと結果が大きく異なります。その問題についてどのように考えたらいいかについて発表しました。
最適輸送入門
最適輸送入門
joisino
IBIS 2021 https://ibisml.org/ibis2021/ における最適輸送についてのチュートリアルスライドです。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-ru-men
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
第4回 統計・機械学習若手シンポジウム(11/15)発表資料
Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
広島ベイズ塾夏合宿で発表したStanコードの書き方中級編です。 回帰分析から,一般化線形モデル,欠損値のあるモデル,潜在変数があるモデル,ゼロ過剰分布,混合分布モデルを扱いました。
最適化超入門
最適化超入門
Takami Sato
TokyoWebMining #40のトーク3の資料です
Graphic Notes on Linear Algebra and Data Science
Graphic Notes on Linear Algebra and Data Science
Kenji Hiranabe
すうがく徒のつどい、9/19 にて発表バージョン。 講演動画はこちら。 https://www.youtube.com/watch?v=eR3JvijvjW8 オリジナル論文はこちら。 https://github.com/kenjihiranabe/The-Art-of-Linear-Algebra/blob/main/The-Art-of-Linear-Algebra.pdf 1つ1つの技術解説はこちら。 各々の分解等のトピックス解説は、Qiita に詳しくしてあります。 https://qiita.com/kenjihiranabe/items/bfa9cd68bb355afc56b7
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
ベイズ最適化を中心とした能動学習のためのモデリングやアルゴリズムの解説,適用例の紹介
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks
2019年6月28日の明治大学での講義資料です。 できるだけ数式を使わずに『機械学習のおさらい』『自動ハイパーパラメタ最適化』『Optuna の使い方』『ベイズ最適化の応用事例』について説明しています。 ●Optuna : https://github.com/pfnet/optuna
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan)第二回における,第四章の発表資料です
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
Stanの初心者が基本的な統計モデルを実行するまでの解説です。プログラミング初心者向けに書いているので,やや説明が遠回りなところもあります。
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
第20回ステアラボ人工知能セミナー https://stair.connpass.com/event/109983/ 【講演動画】 https://youtu.be/Fgza_C6KphU 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演の前半ではまず近年の代表的な研究について紹介する。後半では、発表者の最近の研究として「ランダムフォレストの簡略化」と「モデル列挙」について紹介する。
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
日本語での理論的な資料があまりにも少ないので一応作ってみました。大きなミスはないと思いますが、厳密な議論は飛ばしたりしています。 11/6 リバイズしました
Rの高速化
Rの高速化
弘毅 露崎
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
STAIR Lab, Chiba Institute of Technology
講演者: 林克彦 先生 (NTTコミュニケーション科学基礎研究所) 概要: 情報検索, 自然言語処理, バイオインフォマティクスなどの分野では知識グラフの構築が活発に行われてきた. 知識グラフでは知識をドメイン内の概念と概念の間の関係で記述し, それをグラフとして表現する. 例えば, 語彙間の関係を記述した WordNet や Freebase は知識グラフの代表的な例であり, 情報抽出, 質問応答などへの応用が期待されている. このような知識グラフは一般に大規模であるが, 本来登録されているべき知識の多くが欠落しているなど不完全であることが知られている. そのため, 近年では関係データ学習/リンク予測法を拡張することで, このような欠落を自動的に補完する技術が研究されてきた. 知識グラフの関係データ学習は一般に3次隣接テンソルの低ランク近似 (埋め込み) の問題として解かれるが, 知識グラフ特有の問題から CP 分解などの単純なテンソル分解では上手くモデル化できないことがわかってきている. ここでは知識グラフ特有の問題について整理し, その問題を克服するために提案されたいくつかの手法についてまとめる.
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
統計的学習の基礎 勉強会資料 (8月23日)
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。
What's hot
(20)
【解説】 一般逆行列
【解説】 一般逆行列
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
階層ベイズとWAIC
階層ベイズとWAIC
最適輸送入門
最適輸送入門
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Stanコードの書き方 中級編
Stanコードの書き方 中級編
最適化超入門
最適化超入門
Graphic Notes on Linear Algebra and Data Science
Graphic Notes on Linear Algebra and Data Science
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
Stan超初心者入門
Stan超初心者入門
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Rの高速化
Rの高速化
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
グラフィカルモデル入門
グラフィカルモデル入門
ベイズファクターとモデル選択
ベイズファクターとモデル選択
Similar to 猫でも分かりたい線形回帰の自由度
Fourier analysis on symmetric group
Fourier analysis on symmetric group
HanpenRobot
対称群上のフーリエ解析のメモです. やっぱり群の表現論で一番大事なのは”表現行列の大直交性定理”ですね! これで,有限群上の直交関数系が分かります!
表現論 ゼミ資料
表現論 ゼミ資料
HanpenRobot
武井研 表現論 ゼミ資料 May 11 Wednesday 2016 fixed.
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート
Kenji Hiranabe
線形代数の視覚的理解のためのノート Graphic Notes on Prof. Gilbert Strang's "Linear Algebra for Everyone" Gilbert 先生の線形代数の講義に惚れて作りました。 コンタクト頂ければ、PowerPoint 版をお配りします。 また、マトリックスワールド、も是非ご覧ください。 https://qiita.com/kenjihiranabe/items/854dbe1f6d9fca9df85c
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
WBA若手の会が第11回勉強会で発表するスライドです
120510サブゼミ数学(2)-1
120510サブゼミ数学(2)-1
takemuralab
確率の範囲です
Gmm勉強会
Gmm勉強会
Hayato Ohya
GMM@森島研の資料です。 間違ってるかも・・・?
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
PRML第一章のガウス分布の最尤推定からベイズ曲線フィッティングまでを説明しています。ベイズ曲線フィッティングについては、実装しました。さらに、orderを増やすこととサンプル数に着目した過学習の説明も行っています。
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
Shuyo Nakatani
Tokyo.SciPy #2 にて発表した、数式(あるいは数式入りのアルゴリズム)から実装に落とす場合、何に気をつけるのか、どう考えればいいのか、というお話。 対象は、どうやって数式をプログラムすればいいかよくわからない人、ちょっとややこしい数式になると四苦八苦してしまい、コードに落とすのにすごく時間がかかってしまう人、など。 ここでは実行速度についてはひとまずおいといて、簡潔で間違いにくい、ちゃんと動くコードを書くことを目標にしています。
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
Akira Asano
関西大学総合情報学部 「応用数学(解析)」(担当:浅野晃)
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
t2tarumi
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
Akira Asano
関西大学総合情報学部 「統計学」(担当:浅野晃)
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
Zansa第12回勉強会の資料 「PRMLからベイズの世界へ」
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現
Kazu Ghalamkari
強束縛模型における多体電子状態の第2量子化表現についてまとめました。
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
Akira Asano
関西大学総合情報学部 「応用数学(解析)」(担当:浅野晃)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
Akira Asano
関西大学総合情報学部 応用数学(解析)(担当・浅野晃)
Time series analysis with python chapter2-1
Time series analysis with python chapter2-1
ShoKumada
データラーニングギルドの時系列輪読会の第2回前半の資料です
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
ssuserf4860b
ラビットチャレンジレポート 機械学習
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
Akira Asano
関西大学総合情報学部 「応用数学(解析)」(担当:浅野晃)
グレブナー基底輪読会 #1 ―準備体操の巻―
グレブナー基底輪読会 #1 ―準備体操の巻―
Yutaka Nagahata
1変数多項式の割り算アルゴリズム グレブナー基底を導入される過程で解かれる4つの問 群、環、体、体上の多項式環に対する除法の定理を復習
Prml1.2.4
Prml1.2.4
Tomoyuki Hioki
パターン認識と機械学習 (ベイズ理論による統計的予測) 1.2.4 Pattern Recognition and Machine Learning (PRML)
Similar to 猫でも分かりたい線形回帰の自由度
(20)
Fourier analysis on symmetric group
Fourier analysis on symmetric group
表現論 ゼミ資料
表現論 ゼミ資料
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
120510サブゼミ数学(2)-1
120510サブゼミ数学(2)-1
Gmm勉強会
Gmm勉強会
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
2015年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2015. 12. 17)
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
強束縛模型における多体電子状態の第2量子化表現
強束縛模型における多体電子状態の第2量子化表現
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第13回 孤立特異点と留数 (2015. 1. 8)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
Time series analysis with python chapter2-1
Time series analysis with python chapter2-1
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
グレブナー基底輪読会 #1 ―準備体操の巻―
グレブナー基底輪読会 #1 ―準備体操の巻―
Prml1.2.4
Prml1.2.4
猫でも分かりたい線形回帰の自由度
1.
神戸 之法 猫でも分かりたい 線形回帰 分散の不偏推定量を求めるとき、 偏差平方和をn-1で割るのはなぜ かにゃ? 重回帰分析の残差の自由度が、 n-p-1なのはなぜかにゃ? -残差の自由度-
2.
自己紹介と本スライドの目的 ↑この猫はフリーイラスト ・神戸 之法 ・京大院 →
保険等の金融機関 → 医療系のデータ分析(予定) ・統計学が好き(得意とは言っていない) 自己紹介 ・数学、物理が好き(得意とは言っていない) スライドの目的 ・そろそろ線形回帰の自由度って何なのかちゃんと勉強しようと思って作成 (間違いがあったら教えてください。。直します) ・想定読者は、幾何学的に線形回帰における最小二乗法を理解したい人 線形回帰ってなんだろうって人 ご意見先:kambeyu2019@gmail.com ・途中の数式は読み飛ばしてもOK ・今回が初投稿
3.
実数値をとるn個の観測データ𝑦𝑖を縦に並べたベクトル𝒚を考えると、 自由度とは(1) 𝒚 = 𝑦1 𝑦2 ⋮ 𝑦 𝑛 =
𝑦1 𝒆 𝟏 + 𝑦2 𝒆 𝟐 + ⋯ + 𝑦 𝑛 𝒆 𝒏 = 1 ⋯ 0 ⋮ ⋱ ⋮ 0 ⋯ 1 𝑦1 𝑦2 ⋮ 𝑦 𝑛 = 𝑰 𝒏 𝒚 𝒆 𝟏 = 1 0 ⋮ 0 𝒆𝒊は単位ベクトル n個の観測データ𝒚は、𝑹 𝒏のn個の標準基底の和で表現できるので、𝒚 ∈ 𝑹 𝒏 言い換えると、n個の観測データは、n次元ベクトル空間の1要素である このベクトル空間の次元nを自由度と呼ぶ
4.
自由度とは(2) 例)コイントス 表:1, 裏:0 としたとき、コインを3回投げたとき取りえる事象は、 0 0 0 , 0 1 0 , 0 0 1 , 0 1 1 , 1 0 0 , 1 1 0 , 1 0 1 , 1 1 1 となり、23 =
8個の事象が考えられる。 0,1 = 𝑩とすると、コイントスの 事象𝒚は、𝒚 ∈ 𝑩 𝟑 である 幾何学的に考えると、立方体の頂点の一つが取りえる事象である
5.
線形回帰の残差の自由度(1) n個の観測データ𝒚が、別の観測データ𝒙の線形和で表されるとき、 𝒚の残差の自由度はどうなるのだろうか? 【問題】 𝑦1 𝑦2 ⋮ 𝑦 𝑛 = 1 1 ⋮ 1 𝑥11 𝑥12 ⋮ 𝑥1𝑛 𝑥21 𝑥22 ⋮ 𝑥2𝑛 𝛽0 𝛽1 𝛽2 + 𝜖1 𝜖2 ⋮ 𝜖 𝑛 𝑦𝑖
= 𝛽0 + 𝛽1 𝑥1𝑖 + 𝛽2 𝑥2𝑖 + 𝜖𝑖 𝒚 = 𝑿𝜷 + 𝝐 自由度n 自由度はいくつ? 𝑿:説明変数がp個(上の例は2個)のとき、n×(p+1)行列 直観的には、n×(p+1)行列 𝑿 は、線形写像 𝑓: 𝑹 𝒏 → 𝑹 𝒑+𝟏 であることを考えれば、 残りの誤差は、n-(p+1)の次元を持ちそうである 本当? (線形回帰の色々な表現)
6.
線形回帰の残差の自由度(2) 𝑦1 𝑦2 ⋮ 𝑦 𝑛 = 1 1 ⋮ 1 𝑥11 𝑥12 ⋮ 𝑥1𝑛 𝑥21 𝑥22 ⋮ 𝑥2𝑛 𝛽0 𝛽1 𝛽2 + 𝜖1 𝜖2 ⋮ 𝜖 𝑛 直観的には、n×(p+1)行列
𝑿 は、線形写像 𝑓: 𝑹 𝒏 → 𝑹 𝒑+𝟏 であることを考えれば、 残りの𝝐は、n-(p+1)の次元を持ちそうである 残差の自由度は 𝜷に依存しそう しかし、𝛽0 = 𝛽1 = 𝛽2 = 0の時を考えると、そうでもない気もする 𝜷は、どのように決めるのであったか? 最小二乗法 仮に、観測値𝒚に依存せず、𝜷が既に決まっている(定数)とすると、𝝐の自由度 は𝒚の自由度と同じnになりそう 𝑬 𝝐 = 𝟎, 𝑽 𝝐 = 𝜎2 𝑰 𝒏
7.
線形回帰の残差の自由度(3) 𝒚 = 𝑿𝜷
+ 𝝐 のとき、偏差平方和𝑄(𝜷) 𝜖𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1 − 𝛽2 𝑥2を偏差と呼ぶ 最小二乗法 𝑄 𝜷 = 𝒊 𝜖𝑖 2 = 𝝐 𝑻 𝝐 = 𝒚 − 𝑿𝜷 𝑻 𝒚 − 𝑿𝜷 = 𝒚 − 𝑿𝜷 𝟐 を最小とする𝜷を求める(最小二乗推定量 𝜷 ) 𝜕𝑄 𝜷 𝜕𝜷 = −2𝑿 𝑻 𝒚 − 𝑿𝜷 = −2 𝑿 𝑻 𝒚 − 𝑿 𝑻 𝑿𝜷 =𝟎 𝜷 = 𝜷 = 𝑿 𝑻 𝑿 −𝟏 𝑿 𝑻 𝒚 𝒚 = 𝑿𝜷 + 𝒆 = 𝑿 𝑿 𝑻 𝑿 −𝟏 𝑿 𝑻 𝒚 + 𝒆 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚 よって、 𝒆 = 𝒚 − 𝑿𝜷とすれば、 ここで、𝑯 = 𝑿 𝑿 𝑻 𝑿 −𝟏 𝑿 𝑻 とし、これをハット行列と呼ぶ また、𝒆 = 𝑰 − 𝑯 𝒚 となる 問題は、残差𝒆の自由度を求めることだった
8.
線形回帰の残差の自由度(4) ハット行列の性質 𝑯 = 𝑿
𝑿 𝑻 𝑿 −𝟏 𝑿 𝑻 は、以下の性質を満たす 𝑯2 = 𝑯 より、𝑯は射影行列 𝑰 − 𝑯 𝟐 = 𝑰 − 𝑯 より、 𝑰 − 𝑯も射影行列 𝑯 𝑰 − 𝑯 = 𝑯 − 𝑯 𝟐 = 𝑯 − 𝑯 = 𝑶より、 𝑰 − 𝑯 𝒚は 𝑯𝒚と直交する 𝑯𝑿 = 𝑿 𝑿 𝑻 𝑿 −𝟏 𝑿 𝑻 𝑿 = 𝑿 𝒚 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚 𝑯𝒚は、𝑿で張られる空間への𝒚の射影である 残差 𝒆 = 𝑰 − 𝑯 𝒚 の次元を知るには、行列𝑯のrankが分かれば良い 𝐹:𝒚 ↦ 𝑯𝒚 rank𝑯 =dim(ImF) 残差𝒆の自由度 = 𝑛 − rank𝑯 𝑛 = rank𝑯 + rank(𝑰 − 𝑯)
9.
線形回帰の残差の自由度(5) 𝒚 = 𝑯𝒚
+ 𝑰 − 𝑯 𝒚 rank𝑯 =rank 𝑸−𝟏 𝑯𝑸 = rank diag 1,1, … , 1,0, … , 0 = 𝑟 𝑯𝒖𝒊 = 𝜆𝑖 𝒖𝒊 のとき、 射影行列の固有値は、1または0である 𝑯𝒖𝒊 𝑻 𝑯𝒖𝒊 = 𝜆𝑖 2 𝒖𝒊 𝑻 𝒖𝒊 𝑯𝒖𝒊 𝑻 𝑯𝒖𝒊 = 𝒖𝒊 𝑻 𝑯 𝑻 𝑯𝒖𝒊 = 𝒖𝒊 𝑯 𝟐 𝒖𝒊 = 𝒖𝒊 𝑯𝒖𝒊 = 𝜆𝑖 𝒖𝒊 𝑻 𝒖𝒊 よって、𝜆𝑖 2 = 𝜆𝑖 より、射影行列の固有値は、1または0である 𝑸−𝟏 𝑯𝑸 = diag{1,1, … , 1,0, … , 0} よって、射影行列𝑯は、正則行列𝑸により以下のように変換できる いま、𝑯のrankを𝑟とすると、 tr𝑯 =tr 𝑯𝑸𝑸−𝟏 =tr 𝑸−𝟏 𝑯𝑸 = tr diag 1,1, … , 1,0, … , 0 = 𝑟 rank𝑯 = tr𝑯 = tr 𝑿 𝑿 𝑻 𝑿 −𝟏 𝑿 𝑻 = tr 𝑿 𝑻 𝑿 𝑿 𝑻 𝑿 −𝟏 = tr𝑰 𝒑+𝟏 = 𝑝 + 1 よって、 以上より、𝒆 = 𝑰 − 𝑯 𝒚の自由度は、𝑛 − 𝑝 − 1 残差𝒆の自由度
10.
𝑹 𝒏 𝑿𝜷 =
𝑯𝒚 𝒆 = 𝑰 − 𝑯 𝒚 𝒚 𝟎 𝑿の列が張る空間 (p+1次元) 線形回帰の残差の自由度(6) 𝒚 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚 ここまでのまとめ 𝒚 = 𝑿𝜷 + 𝒆 = 𝑿𝜷 + 𝝐 自由度n 自由度p+1 自由度n-p-1 𝑸−𝟏 𝒚 = 𝑸−𝟏 𝑯𝑸𝑸−𝟏 𝒚 + 𝑸−𝟏 𝑰 − 𝑯 𝑸𝑸−𝟏 𝒚 𝑸−𝟏 𝒚 = 𝑰 𝒑+𝟏 𝑶 𝑶 𝑶 𝑸−𝟏 𝒚 + 𝑶 𝑶 𝑶 𝑰 𝒏−𝒑−𝟏 𝑸−𝟏 𝒚 𝒛 = 𝑸−𝟏 𝒚とおくと、 𝒛 = 𝑧1 ⋮ 𝑧 𝑝+1 0 ⋮ 0 + 0 ⋮ 0 𝑧 𝑝+2 ⋮ 𝑧 𝑛 𝒚 = 𝑯𝒚 + 𝑰 − 𝑯 𝒚より、 自由度n 真の回帰係数 𝒚の観測によらない 例えば 𝒚の母平均𝜇も既知としている
11.
線形回帰の残差の自由度(7) 分散𝜎2の不偏推定量 𝑬 𝒆 𝑻 𝒆
= 𝑬 𝑰 − 𝑯 𝒚 𝑻 𝑰 − 𝑯 𝒚 = 𝑬 𝑰 − 𝑯 𝒚 𝑻 𝑰 − 𝑯 𝑿𝜷 + 𝝐 = 𝑬 𝑰 − 𝑯 𝝐 𝑻 𝑰 − 𝑯 𝝐 𝒚 = 𝑿𝜷 + 𝒆 = 𝑿𝜷 + 𝝐 自由度n 自由度p+1 自由度n-p-1 自由度n 真の回帰係数 𝑰 − 𝑯 𝑿 = 𝑶より、 = 𝑬 𝝐 𝑻 𝑰 − 𝑯 𝑻 𝑰 − 𝑯 𝝐 = 𝑬 𝝐 𝑻 𝑰 − 𝑯 𝝐 = 𝑬 tr 𝝐 𝑻 𝑰 − 𝑯 𝝐 = 𝑬 tr 𝑰 − 𝑯 𝝐 𝑻 𝝐 = tr 𝑰 − 𝑯 𝑬 𝝐 𝑻 𝝐 = tr 𝑰 − 𝑯 𝜎2 = 𝑛 − 𝑝 − 1 𝜎2 最小二乗推定量 よって、分散𝜎2 の不偏推定量は、 ො𝜎2 = 𝒆 𝑻 𝒆 𝑛 − 𝑝 − 1 = 1 𝑛 − 𝑝 − 1 𝑖 𝑦𝑖 − ො𝑦𝑖 2 ෝ𝒚 = 𝑿𝜷 いま、𝑬 ・ の中身は、スカラー(1×1行列)なので、 𝑬 ・ =𝑬 tr(・) tr 𝑰 − 𝑯 = rank 𝑰 − 𝑯 = 𝑛 − 𝑝 − 1であるから、残差平方和を残差𝒆の自由度で割ったものになっている
12.
線形回帰の残差の自由度(8) 例)標本分散 𝒙 = 1 1 ⋮ 1 𝛽 +
𝒆 とおくと、𝒆の自由度は n-1 𝛽 = 𝑿 𝑻 𝑿 −𝟏 𝑿 𝑻 𝒙 = 1 𝑛 𝑖 𝑥𝑖 = ҧ𝑥 𝒆 = 𝒙 − ෝ𝒙 = 𝑥1 − ҧ𝑥 𝑥2 − ҧ𝑥 ⋮ 𝑥 𝑛 − ҧ𝑥 よって、分散𝜎2 の不偏推定量は、 ො𝜎2 = 𝒆 𝑻 𝒆 𝑛 − 𝑝 − 1 = 1 𝑛 − 1 𝑖 𝑥𝑖 − ҧ𝑥 2 ෝ𝒙 = 1 1 ⋮ 1 𝛽 = ҧ𝑥 ҧ𝑥 ⋮ ҧ𝑥 = ഥ𝒙 偏差平方和を𝒆の自由度n-1で割ったものになる rank𝑿 = 1 𝑆2 = 1 𝑛 𝑖 𝑥𝑖 − ҧ𝑥 2 = 𝑛 − 1 𝑛 ො𝜎2 以上より標本分散は、
13.
線形回帰の残差の自由度(9) 例)最小二乗法の最も簡単な具体例(アリの体長) 𝒙 = 2 4 = 1 1 መ𝛽 +
𝒆 無作為に抽出したアリの体長が、2cmと4cmだった アリの体長の分散の不偏推定量を最小二乗法により求めよ መ𝛽 = 1 1 1 1 −𝟏 1 1 2 4 = 1 2 2 + 4 = 3 = ҧ𝑥 最小二乗法より、 𝒆 = 2 4 − 3 3 = −1 1 2個の観測は、2次元ベクトル空間の要素なので、 ො𝜎2 = 𝒆 𝑻 𝒆 𝑛 − 𝑝 − 1 = 2 1 = 2 𝑿𝜷 ∙ 𝒆 = 3 3 −1 1 = 0 1匹目のアリの体長 観測 𝒙 𝑿𝜷 = 1 1 መ𝛽 = 3 3 残差 𝒆 = −1 1 2 4 【ベクトル𝑿𝜷と𝒆の直交性の確認】 ちなみにハット行列𝑯 = 1 2 1 1 1 1 より、𝑰 − 𝑯 = 1 2 1 −1 −1 1 𝒆 = 𝑰 − 𝑯 𝒙 = −1 1 と残差を求めることもできる より、直交している 2次元ベクトル空間上で、 𝑿𝜷と直交するベクトルは、1方向しかない つまり、残差の自由度が2から1に減少していることが分かる。 2匹目のアリの体長
14.
まとめと参考文献 ・線形回帰における最小二乗法は、直角三角形(n次元ベクトル空間における) をつくること! ・線形回帰における最小二乗法 ⇔ 残差ベクトルの長さを最も短くする ⇔ 説明変数の張る空間と残差の張る空間が直交 ⇔
説明変数の張る空間の次元がp+1で、残差の張る空間の次元がn-p-1 参考文献 まとめ
Download now