SlideShare a Scribd company logo
統計学勉強会

  第5回
 @kingqwert
Bootstrap編

資料は学内資料向けなのでちょっ
と数式多いですが端折っていきま
      す。
複雑な問題

• 統計量の正確な標本分布の導出は困難

• 漸近理論の発展
 – 最尤法
   • 一致性、漸近正規性
   • 漸近分散:Fisher情報量の逆数

• 統計量の関数の分布に関してはデルタ法

• 以下の様な統計量においては結構難しい
 – トリム平均、Median →   分位点に関する理論の発展が必
   要
Bootstrap法(ブーツの紐法)
• 1979年 スタンフォード大のBradley Efron
  により開発
• 「ほら吹き男爵」の「ブーツの紐を引っ
  張って湖の底から脱出する」という話

• 教科書
Bootstrap法概説

• リサンプリングすることで母集団の分布を経
  験分布で代用。ノンパラメトリックなモンテ
  カルロ法の一種

• リサンプリング法では観測された標本を有限
  母集団として扱う

• 標本=擬似母集団からの無作為標本
抽出方法

• 復元抽出 sampling with replacement
  – 同じ要素の抽出を許す
  – Rコード: sample()関数
    • Ex. sample(data, 100, replace =True)



• 非復元抽出 sampling without replacement
  – 同じ要素の抽出を許さない
  – Rコード: sample()関数
    • Ex. sample(data, 100, replace =False)
経験分布
         Empirical distribution
• データそのものから導かれる分布のこと
  – イメージ的には、ヒストグラム
  – N個の標本(y1,y2,,,,,yn)の各点に関して1/nの確率を割り当てる離
    散型確率分布




• 未知の母集団分布F(y)
 – 経験分布関数    はF(y)に分布収束する。
差込原理

• Plug-in estimator

•                     を利用してパラメーター
    を推定する方法
    – Bootstrap法はこの原理に基づいて計算され
      る。

• Ex.   平均
ごちゃごちゃしたこたぁいいんだ
          よ!
men.h <- c(26.6,37.2,37.9,36.6,35.6,37.1,40.1,37.4,37.8,36.6)
mean.boot <- numeric(2000)

set.seed(314)

for (b in 1:2000){
  i <- sample(1:10, replace=TRUE) # 1から10までの整数を10回無作為に抽出
  men.boot <- men.h[i]            # b回目のブートストラップ標本
  mean.boot[b] <- mean(men.boot) # b回目のブートストラップ標本平均
}
hist(mean.boot, freq=F, xlab="bootstrap mean", main="") # 平均のヒストグラム

# 両側95%信頼区間
sort(mean.boot)[c(0.025*2000,0.975*2000)]
ブートストラップ誤差
• 統計的誤差
 – 差込原理より     として近似したことからくる誤差
 – どうしようもないから諦めよう!(提案)
 – でも、nは大きくしようね!

• モンテカルロ誤差
 – シミュレーションに基づく誤差
 – 何回反復させるかに依存しているので、十分回数やろう!
 – で、結局何回くらいが適当なの?
   • nが大きい場合、反復回数を増やす
   • 中央値のような標本の滑らかなでない関数の場合反復回数を増やす

 – Efron and Tibshirani(1993) によると、分散や標準誤差のブートス
   トラップ推定の場合は25-300回程度十分らしい!
Jackknife法
• もう一つのリサンプリング法
  – 重複を許さないリサンプリング法
  – 狭義にはこんなかんじで1つだけサンプルを抜いてリサンプリン
    グ

  – イメージ的にはCross validationによく似ている。

• どうでもいいけど、語源は「キャンプ場ですげー便利」

• 利点
  – Bootstrapよりちょっと早い
• 欠点
  – 統計量が平滑でない値の場合、失敗する場合がある。(ex.
    Median)
  – 平滑性=データの変化がどれくらい統計量を変化させるか
Jackknifeの失敗
x<-sample(1:100, size=10)



#標準誤差のジャックナイフ推定量
M<-numeric(10)
for (i in 1:10){
  y<-x[-i]
                                         Jackknifeのmedianの標準誤差とBootstrapの
     M[i]<-median(y)
}                                        medianの標準誤差が大きく違う

Mbar<-mean(y)
print(sqrt((10-1)/10*sum((M-Mbar)^2)))
                                         何かおかしい!
[1] 38.54363

#標準誤差のブートストラップ推定量
Mb<-replicate(1000, expr={               Jackknifeが推定誤差を起こす!
     y<-sample(x, size=10, replace=T)
     median(y)}
)
print(sd(Mb))
[1] 11.94611
Bootstrap信頼区間

• 標準正規Bootstrap CI
• 基本Bootstrap CI
• Percentile Bootstrap CI
• Bootstrap T CI
• BCa法 (Bias corrected and accelerated method)


             – 性能や特性など詳しくは、A.C. Davison et al(1997)
Bootstrap T CI
• 基本Bootstrap CIの場合、           としているので、
  分布のずれがある場合うまく行かない!
 – 一次の正確度しかないから
     • 一次の正確度:
     • Cは被覆誤差
     • C→0 (n→∞)がであってほしい

                    上側信頼限界
• それじゃ、二次のモーメント(分散)まで考えてみればいい
  じゃない!”t型”統計量の標本分布をリサンプリングで作成

• 信頼区間

 –     は、     のα/2番目に小さい値
Bootstrap T CI

• 信頼区間

 –     は、   のα/2番目に小さい値


• 長所
 – 二次の正確性を持つ:

• 短所
 – σの推定が不可欠→ブートストラップ標本ごとにσを計算し
   なけれならないので、計算負荷が大きい(つまり、ブート
   ストラップのなかにブートストラップの入れ子構造)
Percentile CI


• みんな考えつく方法

•          の分布で近似して、α/2番目に大き
    い値と(1-α)/2番目に大きい値を信頼区間とす
    る

• 信頼区間

• 欠点:一次の正確度しか持ってないけどね!
Percentile法の正確度


• Percentile CIの方が標準正規CIより良い被覆率

• 変換後に左右対称となる の単調増加関数                   が存在す
  るか否かに正確度が依存する。
  – 多くの場合、そんな    なんて存在しないよ!
                           • Efron and Tibshirani;1993
                                     • 汪、桜井;2011



• ちょっと改善しましょ!→      BCa法
BCa法
• Percentile法を改善したもの

• 分位点における、偏りに対する補正 & 歪度(加速度)に対す
  る補正

• 変換後に以下を満たす単調増加関数      の存在を仮定
  – b: 偏り修正定数
  – a: 歪度(加速度)補正定数




• これで、分位点を補正!
BCa法
• 偏り補正定数=   のMedianの偏りを補正



• 歪度(加速度)の補正定数



 – ちなみに、加速度=目標母数 に関して、 の標準誤差の変
   化率を推定する意味

• 二次の正確度を持つ!=被覆誤差が          で0に。
で、CI求めるのってどれがいいの
 & 何回反復すりゃいいの?
• うーん。Bootstrap-TかBCaかな? Byung-Jin Ahn et al; 2009




• CIの計算には分散の計算時よりも大きい反復回数が必
  要
   – 90-95% CIの場合は反復回数1000-2000回は必要だよ!
                                                •   Efron and Tibshirani;1993
モデル構築&評価基準編
Stepwise法の準備
• まぁちょっと古い感じ
• まずは回帰分析におけるF検定
 – こんな仮説を検定する




 – H0の残差をu、H1の残差をvとする。
Stepwise法2
1. 初期モデルで回帰式を計算。(普通は、
   切片だけがスタート)
2. 現在のモデルに含まれていない変数の中
   から、一つ変数を追加した場合に、追加
   後のその変数のF値(またはP値)が最大
   となる変数を探す。
3. 設定した閾値をF値が超えると終了
 1. F値の代わりにP値を使用することも可能
 2. Rだと簡単で、step()関数に入れるだけ
誤り率



• 超簡単
• 要は対角線部分
                  予測値

              1         2   3
      実
      測   1
      値
          2
          3
誤り率のクソさ
• サンプルの偏りに全く反応できないというクソっぷり

• 具体的には
 – 患者の1%しかかからない病気に対して
 – 全員陽性である!と主張しても
 – 正答率99%!


• これアレだね。なんか他の考えよう。
Cross validation (交差検証法)

• 全体を K 等分し、 (k-hold)
   – そのうち K-1 個を訓練用に
   – 1個を評価用に使う
を K 回繰り返し、その平均的な性能を測る

•       、性能を測る指標として、 具体的
                   いか
    – 教師無し学習
       • (テスト)対数尤度
    – 教師付き学習
       • 正解率、AUC
情報量基準
• Kullback–Leibler divergence(カルバック・ライブラー情
  報量)
  – 相対エントロピー、カルバックライブラー擬距離とも呼ばれる




  – 感覚的には、離散モデルだと、まず点z_iでのg(z_i)とf(z_i|θ^)と
    の違いをlog()の部分で測り、次にその点がz_iが出現する確率
    g(z_i)をウェイト付けして分布間の違いを測っている
• Logの分子は個々のモデルに依らず常に一定
• 情報量基準の議論はlogの分母の推定量を求めることに帰
  着
AIC
• これ                       は、未知の確率分
  布g(z)に依存
  – 経験分布          で推定してみる。結果として、




  – これは、対数尤度関数に最尤推定値を代入したもの

  – But, 当然経験分布で代用したんだからBiasでるよね。



  – とりあえず、統計モデルの対数尤度からこのバイアスを引いた
    ものを情報量基準ICと呼んでおこう。
AIC
• AICはこのバイアス項を
         モデルの自由パラメータの数
    で近似したことが特徴!!

• 情報量基準AIC
      nは自由パラメータの数=最尤推定によって推定値を得たパラメーターの
                                     個数


• わりと知らないであろう事実1
  – 標本数が尐ないとき (情報が尐ないとき): より単純なモデルが選
    ばれる傾向がある
  – 標本数が多いとき (情報が多いとき): より複雑なモデルが選ばれ
    る傾向がある
AIC
• わりと知らないであろう事実2
 – AIC もまた観測データから推定される推定値であり,推定値には
   ばらつきあり
 – ということで,bootstrap 法などを適用して「あるモデルが比較
   対象の中で AIC 最小となる確率」を評価するとかやる人いるよ


• わりと知らないであろう事実3
 – 異なる分布を仮定したモデルの比較について
   • 離散分布 vs 離散分布の場合は OK
   • 連続分布 vs 連続分布の場合も OK
   • 離散分布 vs 連続分布の場合はダメ(理由: 対数尤度の計算方法が離散分布と
     連続分布で異なるため)
 – ただ大前提があるよ!
   • 同じデータセットを使って異なるモデルのもとで最大化対数尤度を計算す
     る
   • どのモデルでも最大化対数尤度がきちんと計算できる

More Related Content

What's hot

質的変数の相関・因子分析
質的変数の相関・因子分析質的変数の相関・因子分析
質的変数の相関・因子分析
Mitsuo Shimohata
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
Yu Tamura
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門shima o
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
Hiroshi Shimizu
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
Tomoki Matsumoto
 
混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする
Masaru Tokuoka
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
Shushi Namba
 
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
Hiroshi Shimizu
 
MCMCと正規分布の推測
MCMCと正規分布の推測MCMCと正規分布の推測
MCMCと正規分布の推測
Gen Fujita
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
. .
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
Ichigaku Takigawa
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
Shushi Namba
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデル
Hiroshi Shimizu
 

What's hot (20)

質的変数の相関・因子分析
質的変数の相関・因子分析質的変数の相関・因子分析
質的変数の相関・因子分析
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
 
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
 
MCMCと正規分布の推測
MCMCと正規分布の推測MCMCと正規分布の推測
MCMCと正規分布の推測
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデル
 

Similar to 第五回統計学勉強会@東大駒場

Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)正志 坪坂
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
Kohta Ishikawa
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 
マルコフ連鎖モンテカルロ法と多重代入法
マルコフ連鎖モンテカルロ法と多重代入法マルコフ連鎖モンテカルロ法と多重代入法
マルコフ連鎖モンテカルロ法と多重代入法
Koichiro Gibo
 
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
Deep Learning JP
 
Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEEMachine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
Antonio Tejero de Pablos
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura
 
Car rmodel
Car rmodelCar rmodel
Car rmodel
Akichika Miyamoto
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
Shinsaku Kono
 
Datamining 4th adaboost
Datamining 4th adaboostDatamining 4th adaboost
Datamining 4th adaboostsesejun
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
Naoki Hayashi
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライド
Mizumoto Atsushi
 
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
Satoru Yamamoto
 
Rm20140507 4key
Rm20140507 4keyRm20140507 4key
Rm20140507 4keyyouwatari
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01
goony0101
 
ロジスティック回帰入門
ロジスティック回帰入門ロジスティック回帰入門
ロジスティック回帰入門
y-uti
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
Masanori Takano
 

Similar to 第五回統計学勉強会@東大駒場 (20)

Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
マルコフ連鎖モンテカルロ法と多重代入法
マルコフ連鎖モンテカルロ法と多重代入法マルコフ連鎖モンテカルロ法と多重代入法
マルコフ連鎖モンテカルロ法と多重代入法
 
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
 
Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEEMachine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
Car rmodel
Car rmodelCar rmodel
Car rmodel
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
 
Maeshori missing
Maeshori missingMaeshori missing
Maeshori missing
 
Datamining 4th adaboost
Datamining 4th adaboostDatamining 4th adaboost
Datamining 4th adaboost
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライド
 
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
 
Rm20140507 4key
Rm20140507 4keyRm20140507 4key
Rm20140507 4key
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01
 
ロジスティック回帰入門
ロジスティック回帰入門ロジスティック回帰入門
ロジスティック回帰入門
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 

More from Daisuke Yoneoka

MCMC法
MCMC法MCMC法
PCA on graph/network
PCA on graph/networkPCA on graph/network
PCA on graph/network
Daisuke Yoneoka
 
Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variantsSequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variants
Daisuke Yoneoka
 
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studiesHigher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studies
Daisuke Yoneoka
 
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimationDeep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimation
Daisuke Yoneoka
 
独立成分分析 ICA
独立成分分析 ICA独立成分分析 ICA
独立成分分析 ICA
Daisuke Yoneoka
 
Supervised PCAとその周辺
Supervised PCAとその周辺Supervised PCAとその周辺
Supervised PCAとその周辺
Daisuke Yoneoka
 
Sparse models
Sparse modelsSparse models
Sparse models
Daisuke Yoneoka
 
ML: Sparse regression CH.13
 ML: Sparse regression CH.13 ML: Sparse regression CH.13
ML: Sparse regression CH.13
Daisuke Yoneoka
 
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎セミパラメトリック推論の基礎
セミパラメトリック推論の基礎
Daisuke Yoneoka
 
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9
Daisuke Yoneoka
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場Daisuke Yoneoka
 
第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場Daisuke Yoneoka
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場Daisuke Yoneoka
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場Daisuke Yoneoka
 
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
Daisuke Yoneoka
 
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Daisuke Yoneoka
 
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Daisuke Yoneoka
 

More from Daisuke Yoneoka (18)

MCMC法
MCMC法MCMC法
MCMC法
 
PCA on graph/network
PCA on graph/networkPCA on graph/network
PCA on graph/network
 
Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variantsSequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variants
 
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studiesHigher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studies
 
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimationDeep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimation
 
独立成分分析 ICA
独立成分分析 ICA独立成分分析 ICA
独立成分分析 ICA
 
Supervised PCAとその周辺
Supervised PCAとその周辺Supervised PCAとその周辺
Supervised PCAとその周辺
 
Sparse models
Sparse modelsSparse models
Sparse models
 
ML: Sparse regression CH.13
 ML: Sparse regression CH.13 ML: Sparse regression CH.13
ML: Sparse regression CH.13
 
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎セミパラメトリック推論の基礎
セミパラメトリック推論の基礎
 
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
 
第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
 
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
 
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
 
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)
 

第五回統計学勉強会@東大駒場

  • 3. 複雑な問題 • 統計量の正確な標本分布の導出は困難 • 漸近理論の発展 – 最尤法 • 一致性、漸近正規性 • 漸近分散:Fisher情報量の逆数 • 統計量の関数の分布に関してはデルタ法 • 以下の様な統計量においては結構難しい – トリム平均、Median → 分位点に関する理論の発展が必 要
  • 4. Bootstrap法(ブーツの紐法) • 1979年 スタンフォード大のBradley Efron により開発 • 「ほら吹き男爵」の「ブーツの紐を引っ 張って湖の底から脱出する」という話 • 教科書
  • 5. Bootstrap法概説 • リサンプリングすることで母集団の分布を経 験分布で代用。ノンパラメトリックなモンテ カルロ法の一種 • リサンプリング法では観測された標本を有限 母集団として扱う • 標本=擬似母集団からの無作為標本
  • 6. 抽出方法 • 復元抽出 sampling with replacement – 同じ要素の抽出を許す – Rコード: sample()関数 • Ex. sample(data, 100, replace =True) • 非復元抽出 sampling without replacement – 同じ要素の抽出を許さない – Rコード: sample()関数 • Ex. sample(data, 100, replace =False)
  • 7. 経験分布 Empirical distribution • データそのものから導かれる分布のこと – イメージ的には、ヒストグラム – N個の標本(y1,y2,,,,,yn)の各点に関して1/nの確率を割り当てる離 散型確率分布 • 未知の母集団分布F(y) – 経験分布関数 はF(y)に分布収束する。
  • 8. 差込原理 • Plug-in estimator • を利用してパラメーター を推定する方法 – Bootstrap法はこの原理に基づいて計算され る。 • Ex. 平均
  • 9. ごちゃごちゃしたこたぁいいんだ よ! men.h <- c(26.6,37.2,37.9,36.6,35.6,37.1,40.1,37.4,37.8,36.6) mean.boot <- numeric(2000) set.seed(314) for (b in 1:2000){ i <- sample(1:10, replace=TRUE) # 1から10までの整数を10回無作為に抽出 men.boot <- men.h[i] # b回目のブートストラップ標本 mean.boot[b] <- mean(men.boot) # b回目のブートストラップ標本平均 } hist(mean.boot, freq=F, xlab="bootstrap mean", main="") # 平均のヒストグラム # 両側95%信頼区間 sort(mean.boot)[c(0.025*2000,0.975*2000)]
  • 10. ブートストラップ誤差 • 統計的誤差 – 差込原理より として近似したことからくる誤差 – どうしようもないから諦めよう!(提案) – でも、nは大きくしようね! • モンテカルロ誤差 – シミュレーションに基づく誤差 – 何回反復させるかに依存しているので、十分回数やろう! – で、結局何回くらいが適当なの? • nが大きい場合、反復回数を増やす • 中央値のような標本の滑らかなでない関数の場合反復回数を増やす – Efron and Tibshirani(1993) によると、分散や標準誤差のブートス トラップ推定の場合は25-300回程度十分らしい!
  • 11. Jackknife法 • もう一つのリサンプリング法 – 重複を許さないリサンプリング法 – 狭義にはこんなかんじで1つだけサンプルを抜いてリサンプリン グ – イメージ的にはCross validationによく似ている。 • どうでもいいけど、語源は「キャンプ場ですげー便利」 • 利点 – Bootstrapよりちょっと早い • 欠点 – 統計量が平滑でない値の場合、失敗する場合がある。(ex. Median) – 平滑性=データの変化がどれくらい統計量を変化させるか
  • 12. Jackknifeの失敗 x<-sample(1:100, size=10) #標準誤差のジャックナイフ推定量 M<-numeric(10) for (i in 1:10){ y<-x[-i] Jackknifeのmedianの標準誤差とBootstrapの M[i]<-median(y) } medianの標準誤差が大きく違う Mbar<-mean(y) print(sqrt((10-1)/10*sum((M-Mbar)^2))) 何かおかしい! [1] 38.54363 #標準誤差のブートストラップ推定量 Mb<-replicate(1000, expr={ Jackknifeが推定誤差を起こす! y<-sample(x, size=10, replace=T) median(y)} ) print(sd(Mb)) [1] 11.94611
  • 13. Bootstrap信頼区間 • 標準正規Bootstrap CI • 基本Bootstrap CI • Percentile Bootstrap CI • Bootstrap T CI • BCa法 (Bias corrected and accelerated method) – 性能や特性など詳しくは、A.C. Davison et al(1997)
  • 14. Bootstrap T CI • 基本Bootstrap CIの場合、 としているので、 分布のずれがある場合うまく行かない! – 一次の正確度しかないから • 一次の正確度: • Cは被覆誤差 • C→0 (n→∞)がであってほしい 上側信頼限界 • それじゃ、二次のモーメント(分散)まで考えてみればいい じゃない!”t型”統計量の標本分布をリサンプリングで作成 • 信頼区間 – は、 のα/2番目に小さい値
  • 15. Bootstrap T CI • 信頼区間 – は、 のα/2番目に小さい値 • 長所 – 二次の正確性を持つ: • 短所 – σの推定が不可欠→ブートストラップ標本ごとにσを計算し なけれならないので、計算負荷が大きい(つまり、ブート ストラップのなかにブートストラップの入れ子構造)
  • 16. Percentile CI • みんな考えつく方法 • の分布で近似して、α/2番目に大き い値と(1-α)/2番目に大きい値を信頼区間とす る • 信頼区間 • 欠点:一次の正確度しか持ってないけどね!
  • 17. Percentile法の正確度 • Percentile CIの方が標準正規CIより良い被覆率 • 変換後に左右対称となる の単調増加関数 が存在す るか否かに正確度が依存する。 – 多くの場合、そんな なんて存在しないよ! • Efron and Tibshirani;1993 • 汪、桜井;2011 • ちょっと改善しましょ!→ BCa法
  • 18. BCa法 • Percentile法を改善したもの • 分位点における、偏りに対する補正 & 歪度(加速度)に対す る補正 • 変換後に以下を満たす単調増加関数 の存在を仮定 – b: 偏り修正定数 – a: 歪度(加速度)補正定数 • これで、分位点を補正!
  • 19. BCa法 • 偏り補正定数= のMedianの偏りを補正 • 歪度(加速度)の補正定数 – ちなみに、加速度=目標母数 に関して、 の標準誤差の変 化率を推定する意味 • 二次の正確度を持つ!=被覆誤差が で0に。
  • 20. で、CI求めるのってどれがいいの & 何回反復すりゃいいの? • うーん。Bootstrap-TかBCaかな? Byung-Jin Ahn et al; 2009 • CIの計算には分散の計算時よりも大きい反復回数が必 要 – 90-95% CIの場合は反復回数1000-2000回は必要だよ! • Efron and Tibshirani;1993
  • 22. Stepwise法の準備 • まぁちょっと古い感じ • まずは回帰分析におけるF検定 – こんな仮説を検定する – H0の残差をu、H1の残差をvとする。
  • 23. Stepwise法2 1. 初期モデルで回帰式を計算。(普通は、 切片だけがスタート) 2. 現在のモデルに含まれていない変数の中 から、一つ変数を追加した場合に、追加 後のその変数のF値(またはP値)が最大 となる変数を探す。 3. 設定した閾値をF値が超えると終了 1. F値の代わりにP値を使用することも可能 2. Rだと簡単で、step()関数に入れるだけ
  • 24. 誤り率 • 超簡単 • 要は対角線部分 予測値 1 2 3 実 測 1 値 2 3
  • 25. 誤り率のクソさ • サンプルの偏りに全く反応できないというクソっぷり • 具体的には – 患者の1%しかかからない病気に対して – 全員陽性である!と主張しても – 正答率99%! • これアレだね。なんか他の考えよう。
  • 26. Cross validation (交差検証法) • 全体を K 等分し、 (k-hold) – そのうち K-1 個を訓練用に – 1個を評価用に使う を K 回繰り返し、その平均的な性能を測る • 、性能を測る指標として、 具体的 いか – 教師無し学習 • (テスト)対数尤度 – 教師付き学習 • 正解率、AUC
  • 27. 情報量基準 • Kullback–Leibler divergence(カルバック・ライブラー情 報量) – 相対エントロピー、カルバックライブラー擬距離とも呼ばれる – 感覚的には、離散モデルだと、まず点z_iでのg(z_i)とf(z_i|θ^)と の違いをlog()の部分で測り、次にその点がz_iが出現する確率 g(z_i)をウェイト付けして分布間の違いを測っている • Logの分子は個々のモデルに依らず常に一定 • 情報量基準の議論はlogの分母の推定量を求めることに帰 着
  • 28. AIC • これ は、未知の確率分 布g(z)に依存 – 経験分布 で推定してみる。結果として、 – これは、対数尤度関数に最尤推定値を代入したもの – But, 当然経験分布で代用したんだからBiasでるよね。 – とりあえず、統計モデルの対数尤度からこのバイアスを引いた ものを情報量基準ICと呼んでおこう。
  • 29. AIC • AICはこのバイアス項を モデルの自由パラメータの数 で近似したことが特徴!! • 情報量基準AIC nは自由パラメータの数=最尤推定によって推定値を得たパラメーターの 個数 • わりと知らないであろう事実1 – 標本数が尐ないとき (情報が尐ないとき): より単純なモデルが選 ばれる傾向がある – 標本数が多いとき (情報が多いとき): より複雑なモデルが選ばれ る傾向がある
  • 30. AIC • わりと知らないであろう事実2 – AIC もまた観測データから推定される推定値であり,推定値には ばらつきあり – ということで,bootstrap 法などを適用して「あるモデルが比較 対象の中で AIC 最小となる確率」を評価するとかやる人いるよ • わりと知らないであろう事実3 – 異なる分布を仮定したモデルの比較について • 離散分布 vs 離散分布の場合は OK • 連続分布 vs 連続分布の場合も OK • 離散分布 vs 連続分布の場合はダメ(理由: 対数尤度の計算方法が離散分布と 連続分布で異なるため) – ただ大前提があるよ! • 同じデータセットを使って異なるモデルのもとで最大化対数尤度を計算す る • どのモデルでも最大化対数尤度がきちんと計算できる