Recommended
PDF
PDF
PDF
PDF
学振特別研究員になるために~知っておくべき10のTips~
PPTX
PDF
PDF
PPTX
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
PDF
Cmdstanr入門とreduce_sum()解説
PDF
PPTX
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
PPTX
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
PPTX
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
PPTX
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
PDF
PPTX
PDF
PPTX
PPTX
PDF
Granger因果による時系列データの因果推定(因果フェス2015)
PDF
Recent Advances on Transfer Learning and Related Topics Ver.2
PDF
PDF
PPTX
PDF
PDF
PDF
PDF
PDF
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
More Related Content
PDF
PDF
PDF
PDF
学振特別研究員になるために~知っておくべき10のTips~
PPTX
PDF
PDF
PPTX
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
What's hot
PDF
Cmdstanr入門とreduce_sum()解説
PDF
PPTX
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
PPTX
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
PPTX
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
PPTX
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
PDF
PPTX
PDF
PPTX
PPTX
PDF
Granger因果による時系列データの因果推定(因果フェス2015)
PDF
Recent Advances on Transfer Learning and Related Topics Ver.2
PDF
PDF
PPTX
PDF
PDF
PDF
Similar to 第五回統計学勉強会@東大駒場
PDF
PDF
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
PPTX
Rで学ぶデータサイエンス第1章(判別能力の評価)
PPTX
PDF
PDF
PDF
PDF
PDF
PDF
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
PDF
PDF
PDF
PDF
PDF
PDF
PDF
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
PPTX
PDF
LET2015 National Conference Seminar
PDF
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
More from Daisuke Yoneoka
PPTX
PDF
PPTX
Sequential Kernel Association Test (SKAT) for rare and common variants
PPTX
Higher criticism, SKAT and SKAT-o for whole genome studies
PDF
Deep directed generative models with energy-based probability estimation
PDF
PDF
PDF
PDF
ML: Sparse regression CH.13
PDF
PDF
Murphy: Machine learning A probabilistic perspective: Ch.9
PPTX
PPTX
PPTX
PPTX
PPTX
PPTX
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
第五回統計学勉強会@東大駒場 1. 2. 3. 4. 5. 6. 抽出方法
• 復元抽出 sampling with replacement
– 同じ要素の抽出を許す
– Rコード: sample()関数
• Ex. sample(data, 100, replace =True)
• 非復元抽出 sampling without replacement
– 同じ要素の抽出を許さない
– Rコード: sample()関数
• Ex. sample(data, 100, replace =False)
7. 経験分布
Empirical distribution
• データそのものから導かれる分布のこと
– イメージ的には、ヒストグラム
– N個の標本(y1,y2,,,,,yn)の各点に関して1/nの確率を割り当てる離
散型確率分布
• 未知の母集団分布F(y)
– 経験分布関数 はF(y)に分布収束する。
8. 9. ごちゃごちゃしたこたぁいいんだ
よ!
men.h <- c(26.6,37.2,37.9,36.6,35.6,37.1,40.1,37.4,37.8,36.6)
mean.boot <- numeric(2000)
set.seed(314)
for (b in 1:2000){
i <- sample(1:10, replace=TRUE) # 1から10までの整数を10回無作為に抽出
men.boot <- men.h[i] # b回目のブートストラップ標本
mean.boot[b] <- mean(men.boot) # b回目のブートストラップ標本平均
}
hist(mean.boot, freq=F, xlab="bootstrap mean", main="") # 平均のヒストグラム
# 両側95%信頼区間
sort(mean.boot)[c(0.025*2000,0.975*2000)]
10. ブートストラップ誤差
• 統計的誤差
– 差込原理より として近似したことからくる誤差
– どうしようもないから諦めよう!(提案)
– でも、nは大きくしようね!
• モンテカルロ誤差
– シミュレーションに基づく誤差
– 何回反復させるかに依存しているので、十分回数やろう!
– で、結局何回くらいが適当なの?
• nが大きい場合、反復回数を増やす
• 中央値のような標本の滑らかなでない関数の場合反復回数を増やす
– Efron and Tibshirani(1993) によると、分散や標準誤差のブートス
トラップ推定の場合は25-300回程度十分らしい!
11. Jackknife法
• もう一つのリサンプリング法
– 重複を許さないリサンプリング法
– 狭義にはこんなかんじで1つだけサンプルを抜いてリサンプリン
グ
– イメージ的にはCross validationによく似ている。
• どうでもいいけど、語源は「キャンプ場ですげー便利」
• 利点
– Bootstrapよりちょっと早い
• 欠点
– 統計量が平滑でない値の場合、失敗する場合がある。(ex.
Median)
– 平滑性=データの変化がどれくらい統計量を変化させるか
12. 13. Bootstrap信頼区間
• 標準正規Bootstrap CI
• 基本Bootstrap CI
• Percentile Bootstrap CI
• Bootstrap T CI
• BCa法 (Bias corrected and accelerated method)
– 性能や特性など詳しくは、A.C. Davison et al(1997)
14. Bootstrap T CI
• 基本Bootstrap CIの場合、 としているので、
分布のずれがある場合うまく行かない!
– 一次の正確度しかないから
• 一次の正確度:
• Cは被覆誤差
• C→0 (n→∞)がであってほしい
上側信頼限界
• それじゃ、二次のモーメント(分散)まで考えてみればいい
じゃない!”t型”統計量の標本分布をリサンプリングで作成
• 信頼区間
– は、 のα/2番目に小さい値
15. Bootstrap T CI
• 信頼区間
– は、 のα/2番目に小さい値
• 長所
– 二次の正確性を持つ:
• 短所
– σの推定が不可欠→ブートストラップ標本ごとにσを計算し
なけれならないので、計算負荷が大きい(つまり、ブート
ストラップのなかにブートストラップの入れ子構造)
16. 17. 18. 19. BCa法
• 偏り補正定数= のMedianの偏りを補正
• 歪度(加速度)の補正定数
– ちなみに、加速度=目標母数 に関して、 の標準誤差の変
化率を推定する意味
• 二次の正確度を持つ!=被覆誤差が で0に。
20. で、CI求めるのってどれがいいの
& 何回反復すりゃいいの?
• うーん。Bootstrap-TかBCaかな? Byung-Jin Ahn et al; 2009
• CIの計算には分散の計算時よりも大きい反復回数が必
要
– 90-95% CIの場合は反復回数1000-2000回は必要だよ!
• Efron and Tibshirani;1993
21. 22. 23. Stepwise法2
1. 初期モデルで回帰式を計算。(普通は、
切片だけがスタート)
2. 現在のモデルに含まれていない変数の中
から、一つ変数を追加した場合に、追加
後のその変数のF値(またはP値)が最大
となる変数を探す。
3. 設定した閾値をF値が超えると終了
1. F値の代わりにP値を使用することも可能
2. Rだと簡単で、step()関数に入れるだけ
24. 25. 26. Cross validation (交差検証法)
• 全体を K 等分し、 (k-hold)
– そのうち K-1 個を訓練用に
– 1個を評価用に使う
を K 回繰り返し、その平均的な性能を測る
• 、性能を測る指標として、 具体的
いか
– 教師無し学習
• (テスト)対数尤度
– 教師付き学習
• 正解率、AUC
27. 情報量基準
• Kullback–Leibler divergence(カルバック・ライブラー情
報量)
– 相対エントロピー、カルバックライブラー擬距離とも呼ばれる
– 感覚的には、離散モデルだと、まず点z_iでのg(z_i)とf(z_i|θ^)と
の違いをlog()の部分で測り、次にその点がz_iが出現する確率
g(z_i)をウェイト付けして分布間の違いを測っている
• Logの分子は個々のモデルに依らず常に一定
• 情報量基準の議論はlogの分母の推定量を求めることに帰
着
28. AIC
• これ は、未知の確率分
布g(z)に依存
– 経験分布 で推定してみる。結果として、
– これは、対数尤度関数に最尤推定値を代入したもの
– But, 当然経験分布で代用したんだからBiasでるよね。
– とりあえず、統計モデルの対数尤度からこのバイアスを引いた
ものを情報量基準ICと呼んでおこう。
29. AIC
• AICはこのバイアス項を
モデルの自由パラメータの数
で近似したことが特徴!!
• 情報量基準AIC
nは自由パラメータの数=最尤推定によって推定値を得たパラメーターの
個数
• わりと知らないであろう事実1
– 標本数が尐ないとき (情報が尐ないとき): より単純なモデルが選
ばれる傾向がある
– 標本数が多いとき (情報が多いとき): より複雑なモデルが選ばれ
る傾向がある
30. AIC
• わりと知らないであろう事実2
– AIC もまた観測データから推定される推定値であり,推定値には
ばらつきあり
– ということで,bootstrap 法などを適用して「あるモデルが比較
対象の中で AIC 最小となる確率」を評価するとかやる人いるよ
• わりと知らないであろう事実3
– 異なる分布を仮定したモデルの比較について
• 離散分布 vs 離散分布の場合は OK
• 連続分布 vs 連続分布の場合も OK
• 離散分布 vs 連続分布の場合はダメ(理由: 対数尤度の計算方法が離散分布と
連続分布で異なるため)
– ただ大前提があるよ!
• 同じデータセットを使って異なるモデルのもとで最大化対数尤度を計算す
る
• どのモデルでも最大化対数尤度がきちんと計算できる