Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
sleepy_yoshi
2,387 views
PRML復々習レーン#11 前回までのあらすじ
2013-06-23 PRML復々習レーン#11 前回までのあらすじ
Technology
◦
Read more
1
Save
Share
Embed
Embed presentation
Download
Downloaded 17 times
1
/ 17
2
/ 17
3
/ 17
4
/ 17
5
/ 17
6
/ 17
7
/ 17
8
/ 17
9
/ 17
10
/ 17
11
/ 17
12
/ 17
13
/ 17
14
/ 17
15
/ 17
16
/ 17
17
/ 17
More Related Content
PDF
PRML復々習レーン#13 前回までのあらすじ
by
sleepy_yoshi
PDF
PRML復々習レーン#15 前回までのあらすじ
by
sleepy_yoshi
PDF
計算論的学習理論入門 -PAC学習とかVC次元とか-
by
sleepy_yoshi
PDF
PRML復々習レーン#10 前回までのあらすじ
by
sleepy_yoshi
PDF
PRML復々習レーン#12 前回までのあらすじ
by
sleepy_yoshi
PDF
PRML復々習レーン#14 前回までのあらすじ
by
sleepy_yoshi
PDF
KDD2013読み会: Direct Optimization of Ranking Measures
by
sleepy_yoshi
PDF
SIGIR2012勉強会 23 Learning to Rank
by
sleepy_yoshi
PRML復々習レーン#13 前回までのあらすじ
by
sleepy_yoshi
PRML復々習レーン#15 前回までのあらすじ
by
sleepy_yoshi
計算論的学習理論入門 -PAC学習とかVC次元とか-
by
sleepy_yoshi
PRML復々習レーン#10 前回までのあらすじ
by
sleepy_yoshi
PRML復々習レーン#12 前回までのあらすじ
by
sleepy_yoshi
PRML復々習レーン#14 前回までのあらすじ
by
sleepy_yoshi
KDD2013読み会: Direct Optimization of Ranking Measures
by
sleepy_yoshi
SIGIR2012勉強会 23 Learning to Rank
by
sleepy_yoshi
Viewers also liked
PPTX
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
by
Yusuke Iwasawa
PPTX
[DL Hacks] Learning Transferable Features with Deep Adaptation Networks
by
Yusuke Iwasawa
PDF
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
PPTX
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
by
Yusuke Iwasawa
PPTX
Paper Reading, "On Causal and Anticausal Learning", ICML-12
by
Yusuke Iwasawa
PPTX
Dl hacks輪読: "Unifying distillation and privileged information"
by
Yusuke Iwasawa
PPTX
[ICLR2016] 採録論文の個人的まとめ
by
Yusuke Iwasawa
PDF
WaveNet
by
TanUkkii
PDF
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
by
sleepy_yoshi
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
by
Yusuke Iwasawa
[DL Hacks] Learning Transferable Features with Deep Adaptation Networks
by
Yusuke Iwasawa
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
by
Yusuke Iwasawa
Paper Reading, "On Causal and Anticausal Learning", ICML-12
by
Yusuke Iwasawa
Dl hacks輪読: "Unifying distillation and privileged information"
by
Yusuke Iwasawa
[ICLR2016] 採録論文の個人的まとめ
by
Yusuke Iwasawa
WaveNet
by
TanUkkii
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
by
sleepy_yoshi
Similar to PRML復々習レーン#11 前回までのあらすじ
PDF
PRML復々習レーン#10 7.1.3-7.1.5
by
sleepy_yoshi
PDF
PRML 6.4-6.5
by
正志 坪坂
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PPTX
PRML6.4
by
hiroki yamaoka
PDF
Tokyo.R #19 発表資料 「Rで色々やってみました」
by
Masayuki Isobe
PDF
PRML輪読#6
by
matsuolab
PDF
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
by
Wataru Kishimoto
PDF
PRML セミナー
by
sakaguchi050403
PDF
Prml sec6
by
Keisuke OTAKI
PPTX
PRML第6章「カーネル法」
by
Keisuke Sugawara
PDF
PRML読書会1スライド(公開用)
by
tetsuro ito
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PDF
PRML 5章 PP.227-PP.247
by
Tomoki Hayashi
PDF
Prml6
by
Arata Honda
PDF
PRML上巻勉強会 at 東京大学 資料 第1章前半
by
Ohsawa Goodfellow
PDF
PRML輪読#1
by
matsuolab
PPTX
PRML読み会第一章
by
Takushi Miki
PDF
PRML 5.3-5.4
by
正志 坪坂
PDF
[DL輪読会]Deep Learning 第5章 機械学習の基礎
by
Deep Learning JP
PDF
PRMLの線形回帰モデル(線形基底関数モデル)
by
Yasunori Ozaki
PRML復々習レーン#10 7.1.3-7.1.5
by
sleepy_yoshi
PRML 6.4-6.5
by
正志 坪坂
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PRML6.4
by
hiroki yamaoka
Tokyo.R #19 発表資料 「Rで色々やってみました」
by
Masayuki Isobe
PRML輪読#6
by
matsuolab
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
by
Wataru Kishimoto
PRML セミナー
by
sakaguchi050403
Prml sec6
by
Keisuke OTAKI
PRML第6章「カーネル法」
by
Keisuke Sugawara
PRML読書会1スライド(公開用)
by
tetsuro ito
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PRML 5章 PP.227-PP.247
by
Tomoki Hayashi
Prml6
by
Arata Honda
PRML上巻勉強会 at 東京大学 資料 第1章前半
by
Ohsawa Goodfellow
PRML輪読#1
by
matsuolab
PRML読み会第一章
by
Takushi Miki
PRML 5.3-5.4
by
正志 坪坂
[DL輪読会]Deep Learning 第5章 機械学習の基礎
by
Deep Learning JP
PRMLの線形回帰モデル(線形基底関数モデル)
by
Yasunori Ozaki
More from sleepy_yoshi
PDF
DSIRNLP#1 ランキング学習ことはじめ
by
sleepy_yoshi
PDF
CVIM#11 3. 最小化のための数値計算
by
sleepy_yoshi
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
by
sleepy_yoshi
PDF
PRML復々習レーン#2 2.3.6 - 2.3.7
by
sleepy_yoshi
PDF
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
PDF
PRML復々習レーン#9 6.3-6.3.1
by
sleepy_yoshi
PDF
ICML2013読み会: Distributed training of Large-scale Logistic models
by
sleepy_yoshi
PDF
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
by
sleepy_yoshi
PDF
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
by
sleepy_yoshi
PDF
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
PDF
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
PDF
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
PDF
ACL2011読み会: Query Weighting for Ranking Model Adaptation
by
sleepy_yoshi
PDF
SIGIR2011読み会 3. Learning to Rank
by
sleepy_yoshi
PDF
PRML復々習レーン#3 前回までのあらすじ
by
sleepy_yoshi
PDF
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
by
sleepy_yoshi
PDF
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
by
sleepy_yoshi
PDF
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
by
sleepy_yoshi
PDF
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
by
sleepy_yoshi
DSIRNLP#1 ランキング学習ことはじめ
by
sleepy_yoshi
CVIM#11 3. 最小化のための数値計算
by
sleepy_yoshi
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
by
sleepy_yoshi
PRML復々習レーン#2 2.3.6 - 2.3.7
by
sleepy_yoshi
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
PRML復々習レーン#9 6.3-6.3.1
by
sleepy_yoshi
ICML2013読み会: Distributed training of Large-scale Logistic models
by
sleepy_yoshi
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
by
sleepy_yoshi
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
by
sleepy_yoshi
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
ACL2011読み会: Query Weighting for Ranking Model Adaptation
by
sleepy_yoshi
SIGIR2011読み会 3. Learning to Rank
by
sleepy_yoshi
PRML復々習レーン#3 前回までのあらすじ
by
sleepy_yoshi
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
by
sleepy_yoshi
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
by
sleepy_yoshi
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
by
sleepy_yoshi
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
by
sleepy_yoshi
PRML復々習レーン#11 前回までのあらすじ
1.
PRML復々習レーン#11 前回までのあらすじ 2013-06-23 Yoshihiko Suhara @sleepy_yoshi v.1.0
2.
前回のおさらい • 復々習レーンの復習を10分程度でやります – 得られた結論にポイントを絞る –
「よーするに」な内容 • 好きなところをたくさん喋る • よくわからないところは誤魔化す • まちがってたら指摘してください • 目的 – 前回の復習 – 不参加の方に流れを伝えるため – 自分自身の勉強のため ポイントだよ 2 ポイント小僧の向きに意味はありません ポイントだよ
3.
前回の範囲 • 6章 カーネル法 –
・・・ – 6.4 ガウス過程 • 6.4.1 線形回帰再訪 • 6.4.2 ガウス過程による回帰 • 6.4.3 超パラメータの学習 • 6.4.4 関連度自動決定 • 6.4.5 ガウス過程による分類 • 6.4.6 ラプラス近似 • 6.4.7 ニューラルネットワークとの関係 • 7章 疎な解を持つカーネルマシン – 7.1 最大マージン分類器 • 7.1.1 重なりのあるクラス分布 • 7.1.2 ロジスティック回帰との関係 • 7.1.3 多クラスSVM • 7.1.4 回帰のためのSVM • 7.1.5 計算論的学習理論 – 7.2 関連ベクトルマシン 3
4.
6章 カーネル法 4
5.
6.4.3 超パラメータの学習 カーネルパラメータを最尤推定で求める • 第二種の推定
(経験ベイズ) 5 ポイントだよ
6.
6.4.4 関連度自動決定 超パラメータを自動的に決定する • ガウスカーネルの例 –
右のグラフではある次元毎に異なる分散パラメータが設定されている ポイントだよ 6
7.
6.4.5 ガウス過程による分類ポイントだよ 7
8.
6.4.6 ラプラス近似ポイントだよ 8
9.
6.4.7 ニューラルネットワークとの関係 多層ニューラルネットワークの 中間層の数を無限にするとガウス過程に近似する ポイントだよ 9
10.
7章 疎な解を持つカーネルマシン 10
11.
7章 疎な解を持つカーネルマシン カーネルのメリットには十分にわかってので 本章ではモデルを構築するサポートベクタを 減らす方法について紹介 • ハードマージンSVM •
ソフトマージンSVM • 多クラスSVM • SVMによる回帰 • 関連ベクトルマシン ポイントだよ 11
12.
7.1 最大マージン分類器 分類境界を最大化するモデルを求めるため 最適化問題として定式化.それがSVM • 線形分離可能な場合,誤り0で最も境界に近い点から の距離が最大になるような目的関数を設定 –
L2正則化と同じ形式になる – 損失関数の解釈については後述 • 利点 – 大域的最適解が求まる – 双対形式の導出により,カーネル関数の利用が可能 • i.e., 非線形モデルなのに大域的最適解が求まるなんて…!! ポイントだよ 12
13.
7.1.1 重なりのあるクラス分布 ソフトマージンを導入することによって SVMを線形分離不可能な場合に拡張する • 各データ点に対する誤り度合いを表すスラッ ク変数を導入する 𝐶
𝜉 𝑛 𝑁 𝑛=1 + 1 2 𝒘 2 • ハードマージンの場合と同様に双対問題を求 めることができ,二次計画問題として解く • SVM用に開発された数値計算手法 – Sequential Minimal Optimization など ポイントだよ 13
14.
7.1.2 ロジスティック回帰との関係 SVMはヒンジ損失+L2正則化と解釈することができる • SVMの損失関数は以下の 1
− 𝑦𝑛 𝑡 𝑛 + 𝑁 𝑛=1 + 𝜆 𝒘 2 • ロジスティック回帰の損失関数は ln 1 + exp −𝑦𝑛 𝑡 𝑛 + 𝑁 𝑛=1 𝜆 𝒘 2 ポイントだよ 14
15.
7.1.3 多クラスSVM SVMは2値分類しか対応していないため 多クラス分類を実現するためにはいくつか方法がある • one-vs-the-rest方式 –
K個の多クラス分類問題に対してクラス𝑘 (𝑘 = 1, … , 𝐾)を正例,それ以外のク ラスを負例として𝐾個の分類器を学習 – 出力値が最大のものを利用する方法がデファクトスタンダード • one-vs-one方式 – K(K-1)個の分類器を学習.その出力結果を利用 • e.g., DAGSVM • 誤り訂正符号を用いた方法 (ECOC法) • 1-class SVM ポイントだよ 15
16.
7.1.4 回帰のためのSVM 分類の場合と同様にヒンジ損失を用いて 損失に寄与するデータ点 (サポートベクタ)
の 数を少数に抑える回帰モデルを実現する • 誤差関数に以下の𝜖許容誤差関数を用いる 𝐸𝜖 𝑦 𝑥 − 𝑡 = 0 𝑦 𝑥 − 𝑡 < 𝜖 𝑦 𝑥 − 𝑡 − 𝜖 otherwise ポイントだよ 16 RVMではさらに 疎になります お楽しみに!
17.
つづく さぁ今日も一日 がんばるぞ 17
Download