Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
sleepy_yoshi
PDF, PPTX
4,349 views
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ発表資料
Read more
4
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 17
2
/ 17
3
/ 17
4
/ 17
5
/ 17
6
/ 17
7
/ 17
8
/ 17
9
/ 17
10
/ 17
11
/ 17
12
/ 17
13
/ 17
14
/ 17
15
/ 17
16
/ 17
17
/ 17
More Related Content
PDF
PRML復々習レーン#13 前回までのあらすじ
by
sleepy_yoshi
PDF
PRML復々習レーン#15 前回までのあらすじ
by
sleepy_yoshi
PDF
計算論的学習理論入門 -PAC学習とかVC次元とか-
by
sleepy_yoshi
PDF
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
PDF
PRML復々習レーン#11 前回までのあらすじ
by
sleepy_yoshi
PDF
PRML復々習レーン#10 前回までのあらすじ
by
sleepy_yoshi
PDF
PRML復々習レーン#14 前回までのあらすじ
by
sleepy_yoshi
PDF
Prml7 2
by
K5_sem
PRML復々習レーン#13 前回までのあらすじ
by
sleepy_yoshi
PRML復々習レーン#15 前回までのあらすじ
by
sleepy_yoshi
計算論的学習理論入門 -PAC学習とかVC次元とか-
by
sleepy_yoshi
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
PRML復々習レーン#11 前回までのあらすじ
by
sleepy_yoshi
PRML復々習レーン#10 前回までのあらすじ
by
sleepy_yoshi
PRML復々習レーン#14 前回までのあらすじ
by
sleepy_yoshi
Prml7 2
by
K5_sem
Similar to PRML復々習レーン#12 前回までのあらすじ
PDF
PRML輪読#7
by
matsuolab
PDF
PRML復々習レーン#10 7.1.3-7.1.5
by
sleepy_yoshi
PDF
PRML上巻勉強会 at 東京大学 資料 第1章前半
by
Ohsawa Goodfellow
PDF
Tokyo.R #19 発表資料 「Rで色々やってみました」
by
Masayuki Isobe
PDF
PRML読書会1スライド(公開用)
by
tetsuro ito
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PDF
PRML輪読#1
by
matsuolab
PDF
Prml6
by
Arata Honda
PDF
Prml1.2.5~1.2.6
by
Tomoyuki Hioki
PDF
PRML 6.4-6.5
by
正志 坪坂
PPTX
Jupyter NotebookとChainerで楽々Deep Learning
by
Jun-ya Norimatsu
PPTX
PRML読み会第一章
by
Takushi Miki
PPTX
入門パターン認識と機械学習12章
by
hiro5585
PPTX
Prml revenge7.1.1
by
Naoya Nakamura
PPTX
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)
by
Takuji Tahara
PDF
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
PDF
Guide for program Implement for PRML
by
Masato Nakai
PPTX
PRML1.1
by
Tomoyuki Hioki
PDF
PRML1.1
by
Tomoyuki Hioki
PDF
大阪PRML読書会#1資料
by
Hiromasa Ohashi
PRML輪読#7
by
matsuolab
PRML復々習レーン#10 7.1.3-7.1.5
by
sleepy_yoshi
PRML上巻勉強会 at 東京大学 資料 第1章前半
by
Ohsawa Goodfellow
Tokyo.R #19 発表資料 「Rで色々やってみました」
by
Masayuki Isobe
PRML読書会1スライド(公開用)
by
tetsuro ito
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PRML輪読#1
by
matsuolab
Prml6
by
Arata Honda
Prml1.2.5~1.2.6
by
Tomoyuki Hioki
PRML 6.4-6.5
by
正志 坪坂
Jupyter NotebookとChainerで楽々Deep Learning
by
Jun-ya Norimatsu
PRML読み会第一章
by
Takushi Miki
入門パターン認識と機械学習12章
by
hiro5585
Prml revenge7.1.1
by
Naoya Nakamura
DSB2019振り返り会:あのにっくき QWK を閾値調整なしで攻略した(かった)
by
Takuji Tahara
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
Guide for program Implement for PRML
by
Masato Nakai
PRML1.1
by
Tomoyuki Hioki
PRML1.1
by
Tomoyuki Hioki
大阪PRML読書会#1資料
by
Hiromasa Ohashi
More from sleepy_yoshi
PDF
DSIRNLP#1 ランキング学習ことはじめ
by
sleepy_yoshi
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
by
sleepy_yoshi
PDF
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
by
sleepy_yoshi
PDF
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
PDF
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
PDF
PRML復々習レーン#2 2.3.6 - 2.3.7
by
sleepy_yoshi
PDF
PRML復々習レーン#9 6.3-6.3.1
by
sleepy_yoshi
PDF
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
PDF
ICML2013読み会: Distributed training of Large-scale Logistic models
by
sleepy_yoshi
PDF
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
PDF
ACL2011読み会: Query Weighting for Ranking Model Adaptation
by
sleepy_yoshi
PDF
PRML復々習レーン#3 前回までのあらすじ
by
sleepy_yoshi
PDF
SIGIR2011読み会 3. Learning to Rank
by
sleepy_yoshi
PDF
KDD2013読み会: Direct Optimization of Ranking Measures
by
sleepy_yoshi
PDF
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
by
sleepy_yoshi
PDF
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
by
sleepy_yoshi
PDF
SIGIR2012勉強会 23 Learning to Rank
by
sleepy_yoshi
PDF
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
by
sleepy_yoshi
PDF
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
by
sleepy_yoshi
PDF
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
by
sleepy_yoshi
DSIRNLP#1 ランキング学習ことはじめ
by
sleepy_yoshi
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
by
sleepy_yoshi
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
by
sleepy_yoshi
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
PRML復々習レーン#2 2.3.6 - 2.3.7
by
sleepy_yoshi
PRML復々習レーン#9 6.3-6.3.1
by
sleepy_yoshi
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
ICML2013読み会: Distributed training of Large-scale Logistic models
by
sleepy_yoshi
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
ACL2011読み会: Query Weighting for Ranking Model Adaptation
by
sleepy_yoshi
PRML復々習レーン#3 前回までのあらすじ
by
sleepy_yoshi
SIGIR2011読み会 3. Learning to Rank
by
sleepy_yoshi
KDD2013読み会: Direct Optimization of Ranking Measures
by
sleepy_yoshi
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
by
sleepy_yoshi
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
by
sleepy_yoshi
SIGIR2012勉強会 23 Learning to Rank
by
sleepy_yoshi
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
by
sleepy_yoshi
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
by
sleepy_yoshi
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
by
sleepy_yoshi
PRML復々習レーン#12 前回までのあらすじ
1.
PRML復々習レーン#12 前回までのあらすじ 2013-07-21 Yoshihiko Suhara @sleepy_yoshi v.1.0
2.
前回のおさらい • 復々習レーンの復習を10分程度でやります – 得られた結論にポイントを絞る –
「よーするに」な内容 • 好きなところをたくさん喋る • よくわからないところは誤魔化す • まちがってたら指摘してください • 目的 – 前回の復習 – 不参加の方に流れを伝えるため – 自分自身の勉強のため ポイントだよ 2 ポイント小僧の向きに意味はありません ポイントだよ
3.
前回の範囲 • 7章 疎な解を持つカーネルマシン –
7.1 最大マージン分類器 • 7.1.1 重なりのあるクラス分布 • 7.1.2 ロジスティック回帰との関係 • 7.1.3 多クラスSVM • 7.1.4 回帰のためのSVM • 7.1.5 計算論的学習理論 – 7.2 関連ベクトルマシン • 7.2.1 回帰問題に対するRVM • 7.2.2 疎性の解析 • 7.2.3 分類問題に対するRVM • 8章 グラフィカルモデル – 8.1 ベイジアンネットワーク • 8.1.1 例:多項式曲線フィッティング • 8.1.2 生成モデル • 8.1.3 離散変数 • 8.1.4 線形ガウスモデル 3
4.
7章 疎な解を持つカーネルマシン 4
5.
7.1.5 計算論的学習理論 PAC学習 ≒
統計的検定 訓練データとモデルの複雑さ (VC次元) で 汎化誤差を評価 • PAC学習 (だいたい確率的に正しい) • モデルの表現力が高い≒同じ汎化誤差達成に必要な 訓練データたくさん • マージン最大化は実効VC次元を押さえることで仮説 空間の大きさを絞り込むため,高い汎化誤差を達成 – 正確には悪い汎化誤差を生み出すのを防いでいる ポイントだよ 5
6.
7.2 関連ベクトルマシン 出力が確率であり,SVMよりも疎な解が出せる 最強のカーネルマシン,それがRVM • RVMのPros
& Cons – Pros • 出力が確率 – SVMの出力は確率ではない (確率的に扱うことも可能) • パラメータ探索が不要 (i.e., SVMにおけるCパラメータ) • SVMよりもスパースな解 – Cons • 目的関数が非凸.学習に時間がかかる – パラメータ探索が不要だから全体としては速いよ ポイントだよ 6
7.
7.2.1 回帰問題に対するRVM RVMは基本的にベイズ線形回帰 予測分布の分散とカーネルに対する重みの 分散の事前分布をデータから決定するのが違い • 予測分布は
𝑝 𝑡 𝒙, 𝒘, 𝛽 = 𝒩 𝑡 𝑦 𝒙 , 𝛽−1 – ここで 𝑦 𝑥 = 𝑤 𝑛 𝑘(𝒙, 𝒙 𝑛)𝑁 𝑛=1 + 𝑏 • 各データ点に対応する重みパラメータ𝑤𝑖は平均0,精度𝛼𝑖の事前分布 𝒩 𝑤𝑖 0, 𝛼𝑖 −1 を仮定 – 𝛼𝑖 → ∞ のとき,対応するデータ点は予測に影響を与えない • ゼロでない重みを持つ基底関数に対応するデータを関連ベクトルと呼ぶ ポイントだよ 7 𝛽もデータから自動決定 = サポートベクタ回帰における𝜖許容誤差の調整が不要
8.
7.2.2 疎性の解析 疎になる (ry •
左の図は𝛼𝑖有限の場合に尤度最大化 • 右の図は𝛼𝑖を無限大にするのが尤度最大化 ポイントだよ 8
9.
7.2.3 分類問題に対するRVM RVMによる関連ベクトルと SVMによるサポートベクトルの違い • SVM超平面付近に集中 •
RVM必ずしも超平面付近ではない ポイントだよ 9
10.
8章 グラフィカルモデル 10
11.
8章 グラフィカルモデル 確率変数間の関係を有向グラフや無向グラフで表現 することで複雑な確率モデルの設計・学習を容易に行える • グラフィカルモデルの利点 –
確率モデルの視覚化が容易 – グラフ構造を調べることで条件付き独立性などがわかる – 推論や学習における計算をグラフ上の操作として表現可能 • グラフィカルモデルの分類 – 有向グラフ • ベイジアンネットワーク (有向グラフィカルモデル) – 無向グラフ • マルコフ確率場 (無向グラフィカルモデル) • 因子グラフ ポイントだよ 11
12.
8.1 ベイジアンネットワーク 確率変数間の関係を有向グラフで表現することで 同時分布を条件付き確率の積に分解できる • 同時確率の分解方法は一意ではない 𝑝
𝑎, 𝑏, 𝑐 = 𝑝 𝑐 𝑎, 𝑏 𝑝 𝑏 𝑎 𝑝(𝑎) 𝑝 𝑎, 𝑏, 𝑐 = 𝑝 𝑏 𝑎, 𝑐 𝑝 𝑎 𝑐 𝑝(𝑐) • 確率変数の依存関係を有向グラフで表現 𝑝 𝒙 = 𝑝 𝑥 𝑘 pa 𝑘 𝐾 𝑘=1 ポイントだよ 12
13.
8.1.1 例:多項式曲線フィッティング 確率変数は塗りつぶさない円 観測変数は影付き円,決定的パラメータは小さい黒丸 • ベイズ多項式回帰をグラフィカルモデルで表現 ポイントだよ 13 決定的パラメータ 観測変数 確率変数 この枠に囲まれたノードが 𝑁個存在することを表現
14.
8.1.2 生成モデル 観測データの確率分布をモデル化すれば 新しいデータの生成が可能 • たとえば有向グラフの先祖からサンプリングを行 う伝承サンプリングなどがある ポイントだよ 14
15.
8.1.3 離散変数 依存関係やパラメータ共有を利用することで 確率変数の組み合わせパラメータを減らすことができる • 𝐾個の状態を取る離散確率変数が𝑀個ある場合 –
全結合グラフにおいて • 任意の同時分布は𝐾 𝑀 − 1個のパラメータが必要 – 全ての確率変数が独立だと仮定すると • 𝑀(𝐾 − 1)個のパラメータですむ – 鎖状に連結したグラフにおいて • 𝐾 − 1 + 𝑀 − 1 𝐾 𝐾 − 1 • 条件付き分布にパラメトリックな分布を利用する – e.g., ロジスティックシグモイドでモデル化 𝑝 𝑦 = 1 𝑥1, … , 𝑥 𝑀 = 𝜎 𝑤0 + 𝑤𝑖 𝑥𝑖 𝑀 𝑖=1 ポイントだよ 15
16.
8.1.4 線形ガウスモデル 超 (ハイパー)
パラメータの事前分布を 導入する階層ベイズモデルの一例 • ガウス分布の平均の事前分布はガウス分布,その平均の 事前分布もガウス分布 – それらの同時分布もガウス分布なので,ベイズ的取扱いが可 能 • 超パラメータに対して事前分布 (超事前分布) を導入する モデルを階層ベイズモデルと呼ぶ ポイントだよ 16 ガウス! ガウス! ガウス!
17.
つづく さぁ今日も一日 がんばるぞ 17
Download