Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Prunus 1350
4,867 views
はじめてのパターン認識 第11章 11.1-11.2
第14回「はじめてのパターン認識」読書会
Education
◦
Read more
6
Save
Share
Embed
Embed presentation
Download
Downloaded 81 times
1
/ 39
2
/ 39
3
/ 39
4
/ 39
5
/ 39
6
/ 39
7
/ 39
8
/ 39
9
/ 39
10
/ 39
11
/ 39
12
/ 39
13
/ 39
14
/ 39
15
/ 39
16
/ 39
17
/ 39
18
/ 39
19
/ 39
20
/ 39
21
/ 39
22
/ 39
23
/ 39
24
/ 39
25
/ 39
26
/ 39
27
/ 39
28
/ 39
29
/ 39
30
/ 39
31
/ 39
32
/ 39
33
/ 39
34
/ 39
35
/ 39
36
/ 39
37
/ 39
38
/ 39
39
/ 39
More Related Content
PDF
PRML輪読#14
by
matsuolab
PDF
はじパタ11章 後半
by
Atsushi Hayakawa
PDF
はじパタ 10章 クラスタリング 前半
by
Katsushi Yamashita
PDF
はじぱた7章F5up
by
Tyee Z
PDF
はじめてのパターン認識輪読会 10章後半
by
koba cky
PPTX
パーセプトロン型学習規則
by
Shuhei Sowa
PDF
はじめてのパターン認識 第6章 後半
by
Prunus 1350
PDF
はじパタ6章前半
by
T T
PRML輪読#14
by
matsuolab
はじパタ11章 後半
by
Atsushi Hayakawa
はじパタ 10章 クラスタリング 前半
by
Katsushi Yamashita
はじぱた7章F5up
by
Tyee Z
はじめてのパターン認識輪読会 10章後半
by
koba cky
パーセプトロン型学習規則
by
Shuhei Sowa
はじめてのパターン認識 第6章 後半
by
Prunus 1350
はじパタ6章前半
by
T T
What's hot
PDF
異常検知と変化検知 第4章 近傍法による異常検知
by
Ken'ichi Matsui
PPTX
Prml 1.3~1.6 ver3
by
Toshihiko Iio
PDF
はじめてのパターン認識 第8章 サポートベクトルマシン
by
Motoya Wakiyama
PDF
PRML輪読#13
by
matsuolab
PDF
パターン認識と機械学習 13章 系列データ
by
emonosuke
PDF
PRML 1.6 情報理論
by
sleepy_yoshi
PPTX
MCMC法
by
MatsuiRyo
PDF
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
PDF
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
by
Shotaro Sano
PDF
PRML輪読#2
by
matsuolab
PDF
20130716 はじパタ3章前半 ベイズの識別規則
by
koba cky
PDF
PRML輪読#1
by
matsuolab
PDF
決定木学習
by
Mitsuo Shimohata
PDF
Kaggleのテクニック
by
Yasunori Ozaki
PDF
統計的学習の基礎 5章前半(~5.6)
by
Kota Mori
PPTX
PRML第9章「混合モデルとEM」
by
Keisuke Sugawara
PDF
MCMCとともだちになろう【※Docswellにも同じものを上げています】
by
Hiroyuki Muto
PDF
PRML11章
by
Takashi Tamura
PDF
PRML輪読#4
by
matsuolab
PDF
Chapter2.3.6
by
Takuya Minagawa
異常検知と変化検知 第4章 近傍法による異常検知
by
Ken'ichi Matsui
Prml 1.3~1.6 ver3
by
Toshihiko Iio
はじめてのパターン認識 第8章 サポートベクトルマシン
by
Motoya Wakiyama
PRML輪読#13
by
matsuolab
パターン認識と機械学習 13章 系列データ
by
emonosuke
PRML 1.6 情報理論
by
sleepy_yoshi
MCMC法
by
MatsuiRyo
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
by
Shotaro Sano
PRML輪読#2
by
matsuolab
20130716 はじパタ3章前半 ベイズの識別規則
by
koba cky
PRML輪読#1
by
matsuolab
決定木学習
by
Mitsuo Shimohata
Kaggleのテクニック
by
Yasunori Ozaki
統計的学習の基礎 5章前半(~5.6)
by
Kota Mori
PRML第9章「混合モデルとEM」
by
Keisuke Sugawara
MCMCとともだちになろう【※Docswellにも同じものを上げています】
by
Hiroyuki Muto
PRML11章
by
Takashi Tamura
PRML輪読#4
by
matsuolab
Chapter2.3.6
by
Takuya Minagawa
Viewers also liked
PDF
トピックモデルを用いた 潜在ファッション嗜好の推定
by
Takashi Kaneda
PDF
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
by
Naoki Yanai
PDF
パターン認識 第10章 決定木
by
Miyoshi Yuya
PDF
今日から使える! みんなのクラスタリング超入門
by
toilet_lunch
PPTX
Simple perceptron by TJO
by
Takashi J OZAKI
PDF
バンディットアルゴリズム入門と実践
by
智之 村上
PPTX
SVMについて
by
mknh1122
PDF
機会学習ハッカソン:ランダムフォレスト
by
Teppei Baba
PDF
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
by
Tatsuya Tojima
PDF
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
by
Koichi Hamada
PDF
ロジスティック回帰の考え方・使い方 - TokyoR #33
by
horihorio
PDF
一般向けのDeep Learning
by
Preferred Networks
PDF
機械学習チュートリアル@Jubatus Casual Talks
by
Yuya Unno
トピックモデルを用いた 潜在ファッション嗜好の推定
by
Takashi Kaneda
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
by
Naoki Yanai
パターン認識 第10章 決定木
by
Miyoshi Yuya
今日から使える! みんなのクラスタリング超入門
by
toilet_lunch
Simple perceptron by TJO
by
Takashi J OZAKI
バンディットアルゴリズム入門と実践
by
智之 村上
SVMについて
by
mknh1122
機会学習ハッカソン:ランダムフォレスト
by
Teppei Baba
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
by
Tatsuya Tojima
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
by
Koichi Hamada
ロジスティック回帰の考え方・使い方 - TokyoR #33
by
horihorio
一般向けのDeep Learning
by
Preferred Networks
機械学習チュートリアル@Jubatus Casual Talks
by
Yuya Unno
Similar to はじめてのパターン認識 第11章 11.1-11.2
PDF
Random Forests
by
Hironobu Fujiyoshi
PDF
Datamining 4th adaboost
by
sesejun
PDF
データマイニング勉強会3
by
Yohei Sato
PDF
E-SOINN
by
SOINN Inc.
PDF
Random Forestsとその応用
by
MPRG_Chubu_University
PDF
Chapter14.4
by
Takuya Minagawa
PPTX
Data Mining 6.5 Rule-Based Classification
by
KozoChikai
PDF
ランダムフォレスト
by
Kinki University
PPTX
非定常データストリームにおける適応的決定木を用いたアンサンブル学習
by
Yu Sugawara
PPTX
卒研発表 バースカ(確認済み)
by
Baasanchuluun Batnasan
PDF
はてなインターン「機械学習」
by
Hatena::Engineering
PDF
PRML 第14章
by
Akira Miyazawa
PDF
PFI Christmas seminar 2009
by
Preferred Networks
PDF
パターン認識 第01章-判別能力の評価
by
sleipnir002
PDF
Tokyo webmining 複雑ネットワークとデータマイニング
by
Hiroko Onari
PDF
Introduction to ensemble methods for beginners
by
Shinsaku Kono
KEY
アンサンブル学習
by
Hidekazu Tanaka
PDF
A Study of the Learnability of Relational Properties - Model Counting Meets M...
by
T T
PPTX
充足可能性問題のいろいろ
by
Hiroshi Yamashita
PDF
SOINN-AM
by
SOINN Inc.
Random Forests
by
Hironobu Fujiyoshi
Datamining 4th adaboost
by
sesejun
データマイニング勉強会3
by
Yohei Sato
E-SOINN
by
SOINN Inc.
Random Forestsとその応用
by
MPRG_Chubu_University
Chapter14.4
by
Takuya Minagawa
Data Mining 6.5 Rule-Based Classification
by
KozoChikai
ランダムフォレスト
by
Kinki University
非定常データストリームにおける適応的決定木を用いたアンサンブル学習
by
Yu Sugawara
卒研発表 バースカ(確認済み)
by
Baasanchuluun Batnasan
はてなインターン「機械学習」
by
Hatena::Engineering
PRML 第14章
by
Akira Miyazawa
PFI Christmas seminar 2009
by
Preferred Networks
パターン認識 第01章-判別能力の評価
by
sleipnir002
Tokyo webmining 複雑ネットワークとデータマイニング
by
Hiroko Onari
Introduction to ensemble methods for beginners
by
Shinsaku Kono
アンサンブル学習
by
Hidekazu Tanaka
A Study of the Learnability of Relational Properties - Model Counting Meets M...
by
T T
充足可能性問題のいろいろ
by
Hiroshi Yamashita
SOINN-AM
by
SOINN Inc.
More from Prunus 1350
PDF
SAS University EditionでもJupyter Notebookが使えるようになった話
by
Prunus 1350
PDF
統計的学習の基礎 第2章後半
by
Prunus 1350
PDF
Rで学ぶデータマイニングI 第8章〜第13章
by
Prunus 1350
PDF
TokyoR 第36回LT Rで部分空間法
by
Prunus 1350
PDF
はじめてのパターン認識 第9章 9.5-9.6
by
Prunus 1350
PDF
パターン認識と機械学習 §8.3.4 有向グラフとの関係
by
Prunus 1350
PDF
はじめてのパターン認識 第1章
by
Prunus 1350
PDF
パターン認識と機械学習 §6.2 カーネル関数の構成
by
Prunus 1350
KEY
集合知プログラミング 第4章 4.7
by
Prunus 1350
KEY
スティーヴ・ライヒを聴こう
by
Prunus 1350
KEY
第5章 統計的仮説検定 (Rによるやさしい統計学)
by
Prunus 1350
SAS University EditionでもJupyter Notebookが使えるようになった話
by
Prunus 1350
統計的学習の基礎 第2章後半
by
Prunus 1350
Rで学ぶデータマイニングI 第8章〜第13章
by
Prunus 1350
TokyoR 第36回LT Rで部分空間法
by
Prunus 1350
はじめてのパターン認識 第9章 9.5-9.6
by
Prunus 1350
パターン認識と機械学習 §8.3.4 有向グラフとの関係
by
Prunus 1350
はじめてのパターン認識 第1章
by
Prunus 1350
パターン認識と機械学習 §6.2 カーネル関数の構成
by
Prunus 1350
集合知プログラミング 第4章 4.7
by
Prunus 1350
スティーヴ・ライヒを聴こう
by
Prunus 1350
第5章 統計的仮説検定 (Rによるやさしい統計学)
by
Prunus 1350
はじめてのパターン認識 第11章 11.1-11.2
1.
第14回「はじめてのパターン認識」読書会 第11章 識別器の組み合わせによる性能強化(前半) 2014/3/18(火) @Prunus1350
2.
11.1 ノーフリーランチ定理
3.
11.1 ノーフリーランチ定理 • 「すべての諸問題に対して、ほかの識別器より識別性能がよい識別器 は存在しない」
4.
11.1 ノーフリーランチ定理 • すべてのクラス分布で一様に評価すれば、どの識別器も同じ性能にな る。 •
対象とする問題領域を規定しなければ、汎化性能はすべて同じになっ てしまう。 学習データ テストデータ 𝒙 𝑡 ℎ1 ℎ2 𝒙 𝑡1 𝑡2 ⋯ 𝑡25 ℎ1 ℎ2 000 −1 −1 −1 011 1 −1 ⋯ −1 −1 1 001 −1 −1 −1 100 −1 1 ⋯ −1 −1 1 010 1 1 1 101 1 −1 ⋯ −1 −1 1 110 −1 1 ⋯ −1 −1 1 111 −1 1 ⋯ −1 −1 1
5.
11.1 ノーフリーランチ定理 • 問題領域が規定されても、一つの識別器ではよい認識性能が得られな い場合がある。 •
そのような場合に対処する一つの方法は、複数の識別器を組み合わせ ることである。
6.
11.1 ノーフリーランチ定理 • 簡単な識別器の組み合わせで複雑な識別境界を構成する手法 •
決定木 • 複数の決定木や識別器を組み合わせて識別性能を強化する手法 • バギング • ブースティング • ランダムフォレスト
7.
11.1 ノーフリーランチ定理 • 決定木の学習に関する代表的な方式 •
CART (classification and regression tree) ← 本章ではこれを中心に扱う • ID3 • C4.5
8.
11.2 決定木
9.
11.2 決定木 • この図のようなデータ分布があった場合、●と○のクラスを識別する ための識別関数は非線形になる。 𝑥1 𝑥2
10.
11.2 決定木 𝑥1 𝑥2 𝑎
11.
11.2 決定木 𝑥1 𝑥2 𝑎 𝑏
12.
11.2 決定木 𝑥1 𝑥2 𝑎 𝑐 𝑏
13.
11.2 決定木 𝑥1 𝑥2 𝑎 𝑑 𝑐 𝑏
14.
11.2 決定木 𝑥1 𝑥2 𝑎 𝑑
𝑒 𝑐 𝑏
15.
11.2 決定木 • 特徴軸
𝑥1 の値がしきい値 𝑎, 𝑑, 𝑒 より大きいか小さいか、特徴軸 𝑥2 の 値がしきい値 𝑏, 𝑐 より大きいか小さいかを判断しさえすれば、●と○ を識別することができる。 𝑥1 𝑥2 𝑎 𝑑 𝑒 𝑐 𝑏
16.
11.2 決定木 • ある特徴軸の値としきい値の大小関係を判断する過程は、上図のよう な決定木として表現することができる。 1 2
3 4 5 8 9 10 11 6 7 𝑥1 > 𝑎 𝑥2 > 𝑏 𝑥1 > 𝑑 𝑥1 > 𝑒 𝑥2 > 𝑐 Yes Yes Yes Yes No No No No NoYes
17.
11.2 決定木 1 2 3 4
5 8 9 10 11 6 7 𝑥1 > 𝑎 𝑥2 > 𝑏 𝑥1 > 𝑑 𝑥1 > 𝑒 𝑥2 > 𝑐 Yes Yes Yes Yes No No No No NoYes 根ノード
18.
11.2 決定木 1 2 3 4
5 8 9 10 11 6 7 𝑥1 > 𝑎 𝑥2 > 𝑏 𝑥1 > 𝑑 𝑥1 > 𝑒 𝑥2 > 𝑐 Yes Yes Yes Yes No No No No NoYes 終端ノード 葉ノード
19.
11.2 決定木 1 2 3 4
5 8 9 10 11 6 7 𝑥1 > 𝑎 𝑥2 > 𝑏 𝑥1 > 𝑑 𝑥1 > 𝑒 𝑥2 > 𝑐 Yes Yes Yes Yes No No No No NoYes 内部ノード
20.
11.2 決定木 1 2 3 4
5 8 9 10 11 6 7 𝑥1 > 𝑎 𝑥2 > 𝑏 𝑥1 > 𝑑 𝑥1 > 𝑒 𝑥2 > 𝑐 Yes Yes Yes Yes No No No No NoYes 非終端ノード
21.
11.2 決定木 • 学習データから決定木を構成する方法 •
ボトムアップ的な手法 • ある一つの学習データを正しく識別できる特徴の集合を探して特殊な識別規則を作 り、特徴に対する制約を緩めながら、ほかの学習データも正しく識別できるよう規 則を一般化していく手法 • トップダウン的な手法 • まず根ノードですべての学習データをできるだけ誤りの少ないようにクラス分けで きる特徴軸を探して特徴空間を2分割する規則を求め、2分割された空間をさらにそ れぞれ2分割する規則を求めることを繰り返して決定木を成長させる手法 • 分割統治法と呼ばれる • 現在主流の手法
22.
11.2 決定木 • トップダウン的な手法で決定木を学習データから構成するためには、 次の要素について考える必要がある。 1.
各ノードにおいて特徴空間分割規則を構成するための特徴軸としきい値の選択 2. 終端ノードの決定。大きくなった木の剪定をどこまで行うかの選択。 3. 終端ノードに対する多数決によるクラスの割り当て。
23.
11.2.1 決定木に関する諸定義
24.
11.2.1 決定木に関する諸定義 • 木は、0
ではない有限個の正の整数からなる集合 𝑇 と、 𝑡 ∈ 𝑇 から 𝑇 ∪ 0 への二つの関数 left( ) と right( ) で構成される。 • left , right( ) はそれぞれ左側、右側の次ノード番号を与える関数
25.
11.2.1 決定木に関する諸定義 • 木が満たす性質 1.
各 𝑡 ∈ 𝑇 について、left 𝑡 = right 𝑡 = 0 (終端ノード)か、left 𝑡 > 𝑡 かつ right 𝑡 > 𝑡 (非終端ノード)のいずれかが成り立つ。 2. 各 𝑡 ∈ 𝑇 について、 𝑇 内の最小数(根ノード)を除いて 𝑡 = left 𝑠 または 𝑡 = right 𝑠 のどちらかを満たすただ一つの 𝑠 ∈ 𝑇 が存在する。𝑠 を親ノード、 𝑡 を 子ノードといい、 𝑠 = parent 𝑡 で表す。
26.
11.2.2 ノード分割規則
27.
11.2.2 ノード分割規則 • 各ノードにおける特徴空間の最適な分割は、特徴軸ごとに可能な考え うる分割を、不純度と呼ばれる評価関数で評価し選択する。
28.
11.2.2 ノード分割規則 • ノード
𝑡 の不純度 ℐ 𝑡 = 𝜙 𝑃 𝐶1|𝑡 , ⋯ , 𝑃 𝐶 𝐾|𝑡 11.7 • ここで、関数 𝜙 𝑧1, ⋯ , 𝑧 𝐾 は、𝑧𝑖 ≥ 0, 𝑖=1 𝐾 𝑧𝑖 = 1 に対して次の三つの 性質を満たせばよい。 1. 𝜙() は、すべての 𝑖 = 1, ⋯ , 𝐾 に対して 𝑧𝑖 = 1/𝐾 のとき、すなわちど のクラスの事後確率も一様に等しいとき最大になる。 2. 𝜙() は、ある 𝑖 について 𝑧𝑖 = 1 となり、𝑗 ≠ 𝑖 のときはすべて 𝑧𝑗 = 0 、 すなわち、ただ一つのクラスに定まるとき最小になる。 3. 𝜙() は、 𝑧1, ⋯ , 𝑧 𝐾 に関して対称な関数である。
29.
11.2.2 ノード分割規則 • 代表的な不純度を表す関数 1.
ノード 𝑡 における誤り率 ℐ 𝑡 = 1 − max 𝑖 𝑃 𝐶𝑖|𝑡 2. 交差エントロピーまたは逸脱度(deviance) ℐ 𝑡 = − 𝑖=1 𝐾 𝑃 𝐶𝑖|𝑡 ln 𝑃 𝐶𝑖|𝑡 3. ジニ係数(Gini index) ℐ 𝑡 = 𝑗≠𝑖 𝑃 𝐶𝑖|𝑡 𝑃 𝐶𝑗|𝑡 = 𝑖=1 𝐾 𝑃 𝐶𝑖|𝑡 1 − 𝑃 𝐶𝑖|𝑡
30.
11.2.2 ノード分割規則 • ノード
𝑡 で分割規則を作るとき、不純度の減り方が一番大きな分割を 選べばよい。 • 分割を 𝑠 としたとき、 Δℐ 𝑠, 𝑡 = ℐ 𝑡 − 𝑝 𝐿ℐ 𝑡 𝐿 + 𝑝 𝑅ℐ 𝑡 𝑅 が最大になる 𝑠 を、可能な分割の候補の中から選べばよい。
31.
11.2.2 ノード分割規則 • どこで分割を止めればよいのか? •
解決策の一つとして、「不純度が十分に小さくなるまで木を成長させ、 次に、誤り率と木の複雑さで決まる許容範囲まで木を剪定する」とい うものがある。
32.
11.2.3 木の剪定アルゴリズム
33.
11.2.3 木の剪定アルゴリズム • 木を構成した学習アルゴリズムに対する再代入誤り率を定義する。 •
終端ノード 𝑡 ∈ 𝑇 における誤り率は 𝑅 𝑡 = 𝑀 𝑡 𝑁 𝑡 ∈ 𝑇 と定義できる。 • ここで、 • 𝑀 𝑡 :終端ノード 𝑡 における誤り数 • 𝑁 :総学習データ数 • 木全体での再代入誤り率の推定値は 𝑅 𝑇 = 𝑡∈ 𝑇 𝑅 𝑡 となる。
34.
11.2.3 木の剪定アルゴリズム • 木の複雑さを終端ノードの数で評価することにする。 •
一つの終端ノードにおける誤り率と複雑さのコストの和 𝑅 𝛼 𝑡 = 𝑅 𝑡 + 𝛼 • ここで、𝛼 :一つの終端ノードがあることによる複雑さのコスト • 木全体のコストは、 𝑅 𝛼 𝑇 = 𝑡∈ 𝑇 𝑅 𝛼 𝑡 = 𝑅 𝑇 + 𝛼 𝑇 となる。 • ここで、 𝑇 :終端ノード数
35.
11.2.3 木の剪定アルゴリズム • 任意のノード
𝑡 と根ノードとする分枝( 𝑡 のすべての子孫からなる部分 木)を 𝑇𝑡 で表す。 • もし、 𝑅 𝛼 𝑇𝑡 < 𝑅 𝛼 𝑡 であれば、𝑡 を終端ノードと考えたときの誤り と複雑さのコストより、 𝑡 の分枝がもつコストの方が小さいので、 𝑇𝑡 をそのままにしておいた方が全体のコストは小さくなる。 • しかし、正則化パラメータ 𝛼 を次第に大きくしていけば両者は等しく なり、そのときの 𝛼 は、 𝛼 = 𝑅 𝑡 − 𝑅 𝑇𝑡 𝑇𝑡 − 1 で与えられる。
36.
11.2.3 木の剪定アルゴリズム • 𝛼
を 𝑡 の関数とみなして、 𝑔 𝑡 = 𝑅 𝑡 − 𝑅 𝑇𝑡 𝑇𝑡 − 1 と定義する。 • これをノード 𝑡 のリンクの強さに関する尺度と考える。
37.
11.2.3 木の剪定アルゴリズム • 木の剪定アルゴリズム 1.
𝑇0 = 𝑇, 𝑘 = 0 とする 2. 𝑔 𝑘 𝑡 𝑘 = min 𝑡∈ 𝑇 𝑘− 𝑇 𝑘 𝑔 𝑡 を計算する 3. 最小値をとるノードの集合を 𝑇 𝑘 = 𝑡1 𝑘 , ⋯ , 𝑡 𝑚 𝑘 𝑘 とする 4. 𝑖 = 1, ⋯ , 𝑚 𝑘 について以下を繰り返す a. left 𝑡𝑖 𝑘 を根とする分枝を 𝑇 𝑘 から削除する b. right 𝑡𝑖 𝑘 を根とする分枝を 𝑇 𝑘 から削除する 5. 𝑘 = 𝑘 + 1 とする 6. 剪定された木を 𝑇 𝑘 とする 7. 𝑇 𝑘 = 1 であれば終了。そうでなければ 2 に戻る
38.
11.2.3 木の剪定アルゴリズム • 再代入誤り率
𝑅 𝑇 𝐾 は、剪定を進めると単調に増加するので、どこで 止めるべきかの情報を与えてくれない。 • 止めるとことを探すためには、テストデータで汎化誤差を推定しなが ら剪定を進める必要がある。 • ホールドアウト法や交差確認法を用いて誤り率が最も小さくなる 𝑘 の 値を求めればよい。 • 1 標準偏差ルールとよばれる手法が提案されている。
39.
ご清聴ありがとうございました。
Download