SlideShare a Scribd company logo
統計学勉強会

   第7回
 @kingqwert
まずはMCMCをちょっと
MCMC(メトロポリス法)

• 対数尤度関数L(q)を最大化することを考える

1.   パラメーターqの初期値を選ぶ
2.   Qを増やすか減らすかランダムに選ぶ
3.   r=対数尤度比: L(New q)/L(q)をつくる
4.   0≤R<1なる一様乱数を生成する
5.   r>Rなら受理、そうでないなら棄却
それで今日のメインは
 Machine learning!
とりあえずSVMとニューラルネッ
トと、できたら集団学習(アンサ
 ンブル学習)を覚えればおk
Notations 1

• 教師付き学習 (supervised learning) と、教師無
  し学習 (unsupervised learning)
  – 入力データが与えられたとき、これに対する出力を
    正しく予測することが目的→教師あり
  – 入力データだけが与えられ何らかの基準で最適化→教
    師なし
    • クラスター分析、主成分分析、ベクトル量子化、自己組織化
      マップ、強化学習
Notations 2
• 回帰問題
 – Def: 実数値を予測する教師つき学習

• 分類問題
 – Def: 離散的な出力を持つ条件付き確率分布を推定する問題


• わかりやすく言えば、
 – 出力   実数値∈R            「回帰」
 –         離散値、出力の取りうる集合か : 2クラ
   ス分類:+1 と -1 の2値や多クラス分類:{1,2, ...,C}のC通り
                「分類」
統計学俯瞰
クラスタリング1: k-means
• K-meansとは。。。
   – クラスタ数kを指定してクラスタする方法

• Input: データセットx、クラスタ数k

1. 初期化:データからランダムにk個選びクラスタ重心に
   する(境界上はランダムに配分)
2. クラスタ決定: 最も近い重心のクラスタをそのデー
   タのクラスタとし、全データに関して計算
3. 重心再計算:2で決定したクラスタ毎に重心を計算。
   これを収束するまで繰り返す。
注意点
• 長所
 – 速い


• 短所
 – Kの決定が恣意的になっちゃう
   • →x-means、ギャップ統計量、カーネル主成分分析
 – 暗黙の分散均一仮定
クラスタリング2: Fisher判別分
          析
• 判別分析とは。。。
  – 「どの群に属しているかが分かっている標本があるとき
    に,まだ分類されていない標本がどちらの群に属するかを
    推定する手法」
• 以下のJ(w)を最大化
• フィッシャー:分散だけに着目
                      T
                     w VB w
            J ( w)    T
                     w Vw w
•   w:固有ベクトル
•   共分散(χ2乗)/共分散(χ2乗) ~ F分布
•   VBはクラス間分散、VWはクラス内分散
クラス内分散→小さく
           クラス間分散→大きく




うまく分かれるー
クラスタリング3: k-近傍法
• K-近傍法(k-neighborhoodとは)。。。
 – 「テストデータの近くにある学習データの多
   数決でテストデータのラベルを予測する」
K近傍法の特徴
• 長所:わかりやすい、使いやすい

• 短所:
   -更新の激しいデータに不向き(1から
計算し直しになるから)
   -データの中に関係ないファクターが多
数あると誤判断
ニューラルネットワーク
• 脳機能に見られる特性をシミュレーショ
  ンによって再現することを目指した数学
  モデル
ニューラルネットワークとは
• 様々なモデル
 – 多層パーセプトロン ⇒ 今日はこれに注目
 – 自己組織化マップ
 – 動径基底関数ネットワーク
 – 学習ベクトル量子化


• とりあえず多層パーセプトロン
• 判別分析では3層が多く用いられる(らし
  い)
ニューラルネットワークの線形モ
          デル
• 回帰問題


• クラス分類問題

                       f()の返り値はクラスラベルy=1,2,…G




•          :非線形活性化関数

13/02/12        機械学習勉強会@本郷キャンパス                 16
ニューラルネットワークの線形モ
      デル
• 多値入力・多値出力な線形モデルの組み合わせ
サポートベクターマシーン
       (SVM)
• SVMとは。。。
 – データを+1,-1に分ける超平面の推定をする際
   に、マージン(学習データから超平面までの
   最短距離)を最大化する超平面が良いとする
   方法
SVMの特徴
• 長所:
次元が大きくても識別精度がよい
(マージン最大化のため、2次計画問題であり、
最適解が唯一に定まり局所的最適解に陥らな
い)
わかりやすい、使いやすい

• 短所:
線形分離不可能なときはデータを判別できない
(カーネル化)
Kernel

• カーネルのイメージ
 – 高次元に写像したら一気に道がひらけたぜ!
 – カーネルトリック使うと、別にφ(x)を定義不
   要!
決定木
• 決定木とは、データの特徴量を用いた簡単なルールで分
  岐を作り、特徴空間を分割することを通じて判別や回帰
  を行うモデルのこと
• CART(代表的なアルゴリズム)
1.   木の構築:何らかの基準を満たすまで、予め定義しておいたコス
     ト(GINI係数やエントロピー)に基づいて特徴空間を2分割する手
     続きを繰り返す
2.   剪定(pruning):構築された木の深さが深いほど複雑なデータを扱
     うことができるが、過学習の可能性がある。そこで、過学習を防
     ぐため、予め定めておいたパラメータによってモデルの複雑度を
     制御すること




                                      21
決定木の不安定性


• 決定木の問題点
 – 結果の分散が大きく、データが少し変わっただけで構築され
   る木の構造や判別ルールが大きく変わってしまう。
 – あとで出るバギングやブースティングで木の安定性を測って
   いる。




                                 22
集団学習(アンサンブル学習)
• アンサンブル学習とは。。。
  – 弱学習器を複数組み合わせて精度を向上させる手法

• バギング : 要はBootstrap
    ・adabag (R packages)
   ・ipred(R packages)
• ブースティング : 新しい弱学習器を追加する際に、逐次
  的に重みを変えていく(誤差とかで修正していく)
    ・ada (R packages)
   ・adabag (R packages)
アダブースト・Uブースト のイ
      メージ




間違ったものに敏感になる弱学習器を作ってく
バギング特徴

• 過学習を起こしやすかったり、局所解に陥りやすいもの
  ほど効果高い(出力の平均化)
• ブースティングと違って、弱学習器が事例を重み付け出
  来なくても適用でき容易
• 並列に実行可能
• 弱学習の強化には向かない(ショボ憎をいくら集めても
  ショボイ)
ブースティング特徴


•   バギングの各試行を独立じゃなくする
•   弱学習器を追加する際、逐次的に学習させる。
•   並列化が困難
•   2値判別・・・アダブースト、Uブースト
•   多値判別・・・アダブーストM1、M2

More Related Content

What's hot

PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
matsuolab
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワークTakeshi Sakaki
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
Masahito Ohue
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
Haruki Eguchi
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
Arata Honda
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
Haruki Eguchi
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
Hirotaka Hachiya
 
Prml5 6
Prml5 6Prml5 6
Prml5 6
K5_sem
 
SVMについて
SVMについてSVMについて
SVMについて
mknh1122
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
matsuolab
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
matsuolab
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
 
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
Akinori Abe
 
[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章
Haruki Eguchi
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
matsuolab
 

What's hot (20)

PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
 
PRML s1
PRML s1PRML s1
PRML s1
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
Prml5 6
Prml5 6Prml5 6
Prml5 6
 
SVMについて
SVMについてSVMについて
SVMについて
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
 
[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章[第2版]Python機械学習プログラミング 第15章
[第2版]Python機械学習プログラミング 第15章
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 

Similar to 第七回統計学勉強会@東大駒場

LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
 
データマイニングにおける属性構築、事例選択
データマイニングにおける属性構築、事例選択データマイニングにおける属性構築、事例選択
データマイニングにおける属性構築、事例選択無職
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Ohsawa Goodfellow
 
【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2
【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2
【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2
cvpaper. challenge
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
MMDs 7.3 - 7.4
MMDs 7.3 - 7.4MMDs 7.3 - 7.4
MMDs 7.3 - 7.4
Shota Horii
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Preferred Networks
 
SVMってなに?
SVMってなに?SVMってなに?
SVMってなに?
smzkng
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
SaeruYamamuro
 
Superpixel Sampling Networks
Superpixel Sampling NetworksSuperpixel Sampling Networks
Superpixel Sampling Networks
yukihiro domae
 
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection
Toru Tamaki
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Ohsawa Goodfellow
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Satoshi Kato
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
Masayoshi Kondo
 

Similar to 第七回統計学勉強会@東大駒場 (20)

LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
データマイニングにおける属性構築、事例選択
データマイニングにおける属性構築、事例選択データマイニングにおける属性構築、事例選択
データマイニングにおける属性構築、事例選択
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
 
【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2
【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2
【CVPR 2020 メタサーベイ】Recognition (Detection, Categorization)_Group21.2
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
MMDs 7.3 - 7.4
MMDs 7.3 - 7.4MMDs 7.3 - 7.4
MMDs 7.3 - 7.4
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
 
SVMってなに?
SVMってなに?SVMってなに?
SVMってなに?
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
 
Overview and Roadmap
Overview and RoadmapOverview and Roadmap
Overview and Roadmap
 
Superpixel Sampling Networks
Superpixel Sampling NetworksSuperpixel Sampling Networks
Superpixel Sampling Networks
 
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 

More from Daisuke Yoneoka

MCMC法
MCMC法MCMC法
PCA on graph/network
PCA on graph/networkPCA on graph/network
PCA on graph/network
Daisuke Yoneoka
 
Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variantsSequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variants
Daisuke Yoneoka
 
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studiesHigher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studies
Daisuke Yoneoka
 
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimationDeep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimation
Daisuke Yoneoka
 
独立成分分析 ICA
独立成分分析 ICA独立成分分析 ICA
独立成分分析 ICA
Daisuke Yoneoka
 
Supervised PCAとその周辺
Supervised PCAとその周辺Supervised PCAとその周辺
Supervised PCAとその周辺
Daisuke Yoneoka
 
Sparse models
Sparse modelsSparse models
Sparse models
Daisuke Yoneoka
 
ML: Sparse regression CH.13
 ML: Sparse regression CH.13 ML: Sparse regression CH.13
ML: Sparse regression CH.13
Daisuke Yoneoka
 
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎セミパラメトリック推論の基礎
セミパラメトリック推論の基礎
Daisuke Yoneoka
 
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9
Daisuke Yoneoka
 
第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場Daisuke Yoneoka
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場Daisuke Yoneoka
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場Daisuke Yoneoka
 
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
Daisuke Yoneoka
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Daisuke Yoneoka
 
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Daisuke Yoneoka
 

More from Daisuke Yoneoka (19)

MCMC法
MCMC法MCMC法
MCMC法
 
PCA on graph/network
PCA on graph/networkPCA on graph/network
PCA on graph/network
 
Sequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variantsSequential Kernel Association Test (SKAT) for rare and common variants
Sequential Kernel Association Test (SKAT) for rare and common variants
 
Higher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studiesHigher criticism, SKAT and SKAT-o for whole genome studies
Higher criticism, SKAT and SKAT-o for whole genome studies
 
Deep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimationDeep directed generative models with energy-based probability estimation
Deep directed generative models with energy-based probability estimation
 
独立成分分析 ICA
独立成分分析 ICA独立成分分析 ICA
独立成分分析 ICA
 
Supervised PCAとその周辺
Supervised PCAとその周辺Supervised PCAとその周辺
Supervised PCAとその周辺
 
Sparse models
Sparse modelsSparse models
Sparse models
 
ML: Sparse regression CH.13
 ML: Sparse regression CH.13 ML: Sparse regression CH.13
ML: Sparse regression CH.13
 
セミパラメトリック推論の基礎
セミパラメトリック推論の基礎セミパラメトリック推論の基礎
セミパラメトリック推論の基礎
 
Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9Murphy: Machine learning A probabilistic perspective: Ch.9
Murphy: Machine learning A probabilistic perspective: Ch.9
 
第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場第二回統計学勉強会@東大駒場
第二回統計学勉強会@東大駒場
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
 
第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場第一回統計学勉強会@東大駒場
第一回統計学勉強会@東大駒場
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
 
Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)Rで学ぶデータサイエンス第1章(判別能力の評価)
Rで学ぶデータサイエンス第1章(判別能力の評価)
 

第七回統計学勉強会@東大駒場