More Related Content
PDF
KEY
PDF
計算論的学習理論入門 -PAC学習とかVC次元とか- PDF
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築 PDF
PPTX
PDF
PDF
What's hot
PDF
PDF
Fisher線形判別分析とFisher Weight Maps PDF
PDF
PDF
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++ PDF
PDF
PoisoningAttackSVM (ICMLreading2012) PDF
Practical recommendations for gradient-based training of deep architectures PPTX
PDF
PDF
PRML 4.1 Discriminant Function PDF
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning PDF
PDF
PFI Christmas seminar 2009 PPT
PDF
SVM実践ガイド (A Practical Guide to Support Vector Classification) PPT
PDF
PDF
Viewers also liked
PDF
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京 PDF
PDF
トピックモデルを用いた 潜在ファッション嗜好の推定 PDF
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで- PDF
PDF
PPTX
PDF
PDF
PPTX
PDF
ロジスティック回帰の考え方・使い方 - TokyoR #33 PDF
PDF
機械学習チュートリアル@Jubatus Casual Talks Similar to 第14章集団学習
PDF
PDF
PDF
PPT
PDF
PDF
PDF
PDF
[DL輪読会]Deep Learning 第5章 機械学習の基礎 PPTX
PDF
PDF
Big Data Bootstrap (ICML読み会) PDF
PDF
クラシックな機械学習の入門 4. 学習データと予測性能 PPTX
miru2020-200727021915200727021915200727021915200727021915.pptx PDF
PDF
PDF
PDF
Introduction to ensemble methods for beginners PPTX
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ 第14章集団学習
- 1.
- 2.
- 3.
他手法との比較
ちなみにこれは
「Random Forest」
集団学習一種
今回は割愛。
- 4.
- 5.
- 6.
バギング
Bootstrap AGGregatING
ブートストラップで弱学習器を集めるアルゴ
ブートストラップ法(ノンパラメトリッ
リズム
ク版) ブートストラップ小さな標本から得られた
母数の推定値の誤差を推定することが可能
母集団 になり,その精度を調べることができ
る!!
ランダム
サンプリン
グ
標本 標本を擬似母集団と考えて
リサンプリング B回(適当に定める)復元抽出を行
う そこから
ブ ブートストラップ推定量を求める
ー
ト
本ス
ラ
ッ
プ
標
- 7.
バギング
標本
リサンプリング
ブ
ー
ト
本ス
ラ
ッ
プ
標
判別問題・・・多数決 回帰問題・・・平均
(各弱学習器に標本をぶちこんで,各サンプルに (各弱学習器に標本をぶちこんで,各サンプルに
つ ついて出力されたラベルを平均する)
いて もっとも多いラベルを正しいラベルと
みなす)
- 8.
バギング
んで、どのくらい優秀になった?
つまりバギング後、
弱学習器平均の標本推定値とのばらつき
の
分だけ 誤差尐ない!
- 9.
バギング
バギングの特徴
• 過学習を起こしやすかったり、局所解に
陥りやすいものほど効果高い(出力の平
均化)
• ブースティングと違って、弱学習器が事
例を重み付け出来なくても適用でき容易
• それぞれの学習器が独立(並列に実行
可)
➝貧弱な学習器の強化には向かない。
(ex. 天気予報50%であてるモデルを
いくら
- 10.
2値判別の 典型的なアルゴリズム
バギング
(bagging)
そこで!
ブースティング
(boosting)
- 11.
ブースティン
グ
ブースティング
• 各試行を独立じゃなくする
• 弱学習器を追加する際、逐次的に学習さ
せる。
• 並列化が困難
2値判別・・・アダブースト、Uブース
ト
多値判別・・・アダブーストM1、
アダブーストM2
- 12.
他手法との比較
ちなみにこれは
「Random Forest」
集団学習一種
今回は割愛。
- 13.
- 14.
アダブースト アルゴリズ
ム
・初期化 重み
・step1[fの決定]
T
回
繰
り ・step2[αの計算]
返
す
・step3[重み更
新]
・出
力
- 16.
- 17.
Uブースト アルゴリズム
アダブーストとほぼいっしょ
・初期化
T
回 アダブースト
繰
り ・step2[αの計算]
返
す
・step4[重み更
新]
・出
力
- 18.
- 19.
アダブーストM.1 アルゴリズム
・初期化
・step1[fの決定]
T
回
繰
り ・step2[αの計算]
返
す
・step3[重み更
新]
・出
力
!ポイント! 重み付き誤り率>0,5になることもある
重み付き誤り率≧0.5のときは使えない!
それなりに“強い”弱学習器でないとだめ・・・
- 20.
M.1 微妙・・・
ex.晴れ、雨、雪の3ラベルの場合
2値だったら,「晴れ40%」の弱い学習器が「雨60%」の弱学習器とでき
た。
しかし!3値になった瞬間、「晴れ40%」は依然弱いまま・・・
でも要求は重み付き誤り率0.5より小・・・
1つ1つの判別器を多尐ゆとりをもたせて考慮.
クラス集合に収まる?収まらない?として,2値判別として考える.
M.2 どや!
ex.晴れ、雨、雪の3ラベルの場合
「晴れ」「晴れ以外」,「雨」「雨以外」,「雪」「雪以外」と考えれ
ば
2値で考えられる!
- 21.
アダブーストM.2 アルゴリズム
True? or false?
弱学習器改め、 「弱仮
説」
・初期化
T
回
繰
り ・step2[αの計算]
返
す
・step4[重み更
新]
・出 やってることはいっしょ
より正確な判別器を選んで
力 不正解に敏感になるように重み更新
- 22.
- 23.
パッケージ
○バギング
・adabag
・ipred
○ブースティング
・ada
・adabag
○ランダムフォレスト
・randomForest
- 24.
- 25.
- 26.
- 27.
バギング(adabag)
> library(kernlab)
> data(spam)
>set.seed(50)
> tr.num<-sample(4601,2500)
> spam.train<-spam[tr.num,]
> spam.test<-spam[-tr.num,]
> library(adabag)
> spam.bag<-bagging(type~.,data=spam.train)
> spam.predict<-predict(spam.bag,spam.test)
> 1-spam.predict$error
[1] 0.9057592
予測誤差 正判別率%
- 28.
アダブースト(adabag)
> library(rpart)
> library(adabag)
>data <- iris
> ndata <- nrow(data)
> set.seed(101)
> ridx <- sample(ndata, ndata * 0.5)
> data.train <- data[ridx,]
> data.test <- data[-ridx,]
> data.adaCv <- boosting(Species ~ .,data
= data.train, mfinal = 10)
> resultPredict <- predict(data.adaCv,
newdata = data.test, type="class")
> resultPredict
- 29.