Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Akifumi Eguchi
PDF, PPTX
5,579 views
統計的学習の基礎6章前半 #カステラ本
10月4日、統計的学習の基礎読書会 第8回&第9回で使用した資料です。
Data & Analytics
◦
Read more
5
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 39
2
/ 39
3
/ 39
4
/ 39
5
/ 39
6
/ 39
Most read
7
/ 39
8
/ 39
9
/ 39
10
/ 39
11
/ 39
12
/ 39
13
/ 39
14
/ 39
15
/ 39
16
/ 39
17
/ 39
18
/ 39
19
/ 39
20
/ 39
21
/ 39
22
/ 39
23
/ 39
24
/ 39
25
/ 39
26
/ 39
27
/ 39
28
/ 39
29
/ 39
30
/ 39
31
/ 39
32
/ 39
33
/ 39
34
/ 39
35
/ 39
36
/ 39
37
/ 39
38
/ 39
39
/ 39
More Related Content
PPTX
変分ベイズ法の説明
by
Haruka Ozaki
PDF
データ解析7 主成分分析の基礎
by
Hirotaka Hachiya
PDF
Variational AutoEncoder
by
Kazuki Nitta
PDF
Hyperoptとその周辺について
by
Keisuke Hosaka
PPTX
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
PDF
PRMLの線形回帰モデル(線形基底関数モデル)
by
Yasunori Ozaki
PDF
GAN(と強化学習との関係)
by
Masahiro Suzuki
PDF
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
変分ベイズ法の説明
by
Haruka Ozaki
データ解析7 主成分分析の基礎
by
Hirotaka Hachiya
Variational AutoEncoder
by
Kazuki Nitta
Hyperoptとその周辺について
by
Keisuke Hosaka
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
PRMLの線形回帰モデル(線形基底関数モデル)
by
Yasunori Ozaki
GAN(と強化学習との関係)
by
Masahiro Suzuki
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
What's hot
PPTX
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
by
Kosuke Shinoda
PDF
最適輸送の計算アルゴリズムの研究動向
by
ohken
PPTX
15分でわかる(範囲の)ベイズ統計学
by
Ken'ichi Matsui
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PDF
PRML8章
by
弘毅 露崎
PDF
機械学習におけるオンライン確率的最適化の理論
by
Taiji Suzuki
PDF
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
PDF
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
PDF
組合せ最適化入門:線形計画から整数計画まで
by
Shunji Umetani
PPTX
社会心理学者のための時系列分析入門_小森
by
Masashi Komori
PDF
正準相関分析
by
Akisato Kimura
PPTX
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
by
智文 中野
PDF
統計的係り受け解析入門
by
Yuya Unno
PDF
最適化超入門
by
Takami Sato
PDF
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
PDF
PRML輪読#1
by
matsuolab
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
PDF
統計的学習の基礎 第2章後半
by
Prunus 1350
PDF
PRML輪読#4
by
matsuolab
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
by
Kosuke Shinoda
最適輸送の計算アルゴリズムの研究動向
by
ohken
15分でわかる(範囲の)ベイズ統計学
by
Ken'ichi Matsui
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PRML8章
by
弘毅 露崎
機械学習におけるオンライン確率的最適化の理論
by
Taiji Suzuki
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
組合せ最適化入門:線形計画から整数計画まで
by
Shunji Umetani
社会心理学者のための時系列分析入門_小森
by
Masashi Komori
正準相関分析
by
Akisato Kimura
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
by
智文 中野
統計的係り受け解析入門
by
Yuya Unno
最適化超入門
by
Takami Sato
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
PRML輪読#1
by
matsuolab
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
統計的学習の基礎 第2章後半
by
Prunus 1350
PRML輪読#4
by
matsuolab
Similar to 統計的学習の基礎6章前半 #カステラ本
PDF
パターン認識と機械学習 13章 系列データ
by
emonosuke
PPTX
PRML第6章「カーネル法」
by
Keisuke Sugawara
PDF
統計的学習の基礎 5章前半(~5.6)
by
Kota Mori
PDF
Stanでガウス過程
by
Hiroshi Shimizu
PDF
情報幾何勉強会 EMアルゴリズム
by
Shinagawa Seitaro
PDF
PRML 6.1章 カーネル法と双対表現
by
hagino 3000
PDF
PRML輪読#6
by
matsuolab
PDF
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
PDF
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
PDF
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
PDF
Prml6
by
Arata Honda
PDF
Prml5 6
by
K5_sem
PDF
Bishop prml 9.3_wk77_100408-1504
by
Wataru Kishimoto
PDF
Prml sec6
by
Keisuke OTAKI
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PPTX
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
by
Yu Otsuka
PDF
PRML2.3.8~2.5 Slides in charge
by
Junpei Matsuda
PDF
Cvim tutorial2 03_06_wk77_110220-0546
by
Wataru Kishimoto
PDF
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
パターン認識と機械学習 13章 系列データ
by
emonosuke
PRML第6章「カーネル法」
by
Keisuke Sugawara
統計的学習の基礎 5章前半(~5.6)
by
Kota Mori
Stanでガウス過程
by
Hiroshi Shimizu
情報幾何勉強会 EMアルゴリズム
by
Shinagawa Seitaro
PRML 6.1章 カーネル法と双対表現
by
hagino 3000
PRML輪読#6
by
matsuolab
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
Prml6
by
Arata Honda
Prml5 6
by
K5_sem
Bishop prml 9.3_wk77_100408-1504
by
Wataru Kishimoto
Prml sec6
by
Keisuke OTAKI
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
by
Yu Otsuka
PRML2.3.8~2.5 Slides in charge
by
Junpei Matsuda
Cvim tutorial2 03_06_wk77_110220-0546
by
Wataru Kishimoto
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
More from Akifumi Eguchi
PDF
みどりぼん3章前半
by
Akifumi Eguchi
PDF
ぞくパタ最終回: 13章「共クラスタリング」
by
Akifumi Eguchi
PDF
みどりぼん9章前半
by
Akifumi Eguchi
PDF
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
by
Akifumi Eguchi
PDF
Randomforestで高次元の変数重要度を見る #japanr LT
by
Akifumi Eguchi
PDF
環境化学データ解析入門: 愛媛大講演資料 160728
by
Akifumi Eguchi
PDF
High-order factorization machines with R #tokyor 61
by
Akifumi Eguchi
PPTX
PlaidML Kerasでやっていく #TokyoR 73
by
Akifumi Eguchi
PDF
第2回ぞくパタ
by
Akifumi Eguchi
PDF
第一回ぞくパタ
by
Akifumi Eguchi
PDF
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
by
Akifumi Eguchi
PPTX
Tokyo R #39
by
Akifumi Eguchi
PDF
Tokyo r #43
by
Akifumi Eguchi
PDF
Deep learningもくもくハッカソンまとめup用
by
Akifumi Eguchi
PDF
Tokyo.r #44 lt.pptx
by
Akifumi Eguchi
PDF
Mxnetで回帰 #TokyoR 53th
by
Akifumi Eguchi
PDF
Dslt祭り2夜
by
Akifumi Eguchi
PDF
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
by
Akifumi Eguchi
PDF
ぞくパタ はじめに
by
Akifumi Eguchi
みどりぼん3章前半
by
Akifumi Eguchi
ぞくパタ最終回: 13章「共クラスタリング」
by
Akifumi Eguchi
みどりぼん9章前半
by
Akifumi Eguchi
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
by
Akifumi Eguchi
Randomforestで高次元の変数重要度を見る #japanr LT
by
Akifumi Eguchi
環境化学データ解析入門: 愛媛大講演資料 160728
by
Akifumi Eguchi
High-order factorization machines with R #tokyor 61
by
Akifumi Eguchi
PlaidML Kerasでやっていく #TokyoR 73
by
Akifumi Eguchi
第2回ぞくパタ
by
Akifumi Eguchi
第一回ぞくパタ
by
Akifumi Eguchi
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
by
Akifumi Eguchi
Tokyo R #39
by
Akifumi Eguchi
Tokyo r #43
by
Akifumi Eguchi
Deep learningもくもくハッカソンまとめup用
by
Akifumi Eguchi
Tokyo.r #44 lt.pptx
by
Akifumi Eguchi
Mxnetで回帰 #TokyoR 53th
by
Akifumi Eguchi
Dslt祭り2夜
by
Akifumi Eguchi
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
by
Akifumi Eguchi
ぞくパタ はじめに
by
Akifumi Eguchi
統計的学習の基礎6章前半 #カステラ本
1.
統計的学習の基礎: 6-1 ~ 6-4 カーネル平滑化法 @siero5335 20161004 @Yahoo! 統計的学習の基礎 読書会#1
2.
カーネル平滑化? 領域Rp上で回帰関数f(X)を柔軟に推定できるよう、着目する点x0 に近い観測点だけを使って、f^(X)がRp上で滑らかになるようにモ デルを作る(局所的に上手く当てはまるようにする)。
3.
カーネル平滑化? 領域Rp上で回帰関数f(X)を柔軟に推定できるよう、着目する点x0 に近い観測点だけを使って、f^(X)がRp上で滑らかになるようにモ デルを作る(局所的に上手く当てはまるようにする)。 観測点xiにx0からの距離に基づく重みを付与する重み関数である カーネル Kλ(x0, xi) を介して局所重み付けが実現される。トレーニ ングはほぼ不要。訓練データから決めるパラメータはλだけ。
4.
カーネル平滑化? 領域Rp上で回帰関数f(X)を柔軟に推定できるよう、着目する点x0 に近い観測点だけを使って、f^(X)がRp上で滑らかになるようにモ デルを作る(局所的に上手く当てはまるようにする)。 観測点xiにx0からの距離に基づく重みを付与する重み関数である カーネル Kλ(x0, xi) を介して局所重み付けが実現される。トレーニ ングはほぼ不要。訓練データから決めるパラメータはλだけ。 この章でのカーネルは局所回帰に特化したもので、サポートベク ターマシンみたいな高次元特徴空間での内積を計算するカーネ ルとはちょっと違う (関係はしている? → 7章で詳細)
5.
カーネル平滑化? 領域Rp上で回帰関数f(X)を柔軟に推定できるよう、着目する点x0 に近い観測点だけを使って、f^(X)がRp上で滑らかになるようにモ デルを作る(局所的に上手く当てはまるようにする)。 観測点xiにx0からの距離に基づく重みを付与する重み関数である カーネル Kλ(x0, xi) を介して局所重み付けが実現される。トレーニ ングはほぼ不要。訓練データから決めるパラメータはλだけ。 この章でのカーネルは局所回帰に特化したもので、サポートベク ターマシンみたいな高次元特徴空間での内積を計算するカーネ ルとはちょっと違う (関係はしている? → 7章で詳細) こんなのがどこかにあったような?
6.
1次元カーネル平滑化手法 (KNNカーネル) 着目する点x0 に近い観測点だけを使って、f^(X)がRp上で滑らか になるようにモデルを作る。 → 2章のKNN: f^(X) = Ave(yi|xi ∈ Nk(x)) を推定値にした場合 最近傍カーネルでは f^(x)がxにおいて不 連続なので予測値が 波打っている 拡大
7.
1次元カーネル平滑化手法 予測値が波打つような不連続なのは 見栄えが良くないので避けたい → 近傍に含まれる全ての点に対し、 等しく重みをつけているのがよくない →着目点からの距離に応じて重みが 減少すれば良い感じになる ナダラヤ=ワトソン重み付きカーネル
8.
1次元カーネル平滑化手法 ナダラヤ=ワトソン重み付きカーネル 今回はカーネルKλ(x0, xi) にイパネクニコフ2次カーネルを使う ! = !!(!!, !!)!! ! !!! !!(!!,
!!)! !!! D(t) = 3 4 1 − !! ! ≤ 1 0 その他の場合 !! !!, ! = ! 𝑥 − 𝑥! λ ! = 𝑥 − 𝑥! λ
9.
1次元カーネル平滑化手法 (ナダラヤ=ワトソンカーネル) 着目する点x0 に近い観測点だけを使って、f^(X)がRp上で滑らか になるようにモデルを作る。 → ナダラヤ=ワトソンカーネルの場合 (イパネクニコフ: λ = 0.2) ナダラヤ=ワトソンカー ネルだとスムーズな線 になっている 拡大
10.
1次元カーネル平滑化手法 ナダラヤ=ワトソン重み付きカーネル 今回はカーネルKλ(x0, xi) にイパネクニコフ2次カーネルを使う ! = !!(!!, !!)!! ! !!! !!(!!,
!!)! !!! D(t) = 3 4 1 − !! ! ≤ 1 0 その他の場合 !! !!, ! = ! 𝑥 − 𝑥! λ ! = 𝑥 − 𝑥! λ
11.
その他のカーネル ナダラヤ=ワトソン重み付きカーネル 矩形3次カーネル ガウス密度関数 ! = !!(!!, !!)!! ! !!! !!(!!,
!!)! !!! D(t) = 0 その他の場合 !! !!, ! = ! 𝑥 − 𝑥! λ ! = 𝑥 − 𝑥! λ 1 − ! ! ! ! ≤ 1 D(t) = φ (t) : 標準偏差が窓幅と同じ役割を示す
12.
その他のカーネル Elements of StaRsRcal Learning (second ediRon): Fig. 6.2 HasRe, Tibshirani and Friedman (2009) 矩形3次カーネルは台の境界で連続導関数を持つ ガウスカーネルは連続微分可能・無限の台を持つ
13.
注意点 平滑化パラメータλの決定 λ大きい → 分散が小さくなり、バイアスが大きくなる カーネルの基準幅(定数hλ(x)) 推定値のバイアスを一定に抑える傾向があるが、分散は 局所的な密度に反比例する。最近傍窓の場合はこの逆 同じxiに複数のデータが有るときは間引いたり平均したり重 み付けをしたりするが、重みの付け方は難しい データの境界部ではカーネルの基準幅ないの近傍点の数 が減ったり、最近傍点の入る領域が増えたりするので注意
14.
局所重み付け回帰 (LOESS) ナダラヤ=ワトソン LOESS
15.
局所重み付け回帰 (LOESS) ナダラヤ=ワトソン LOESS 領域の境界上や近傍にバイアス問題を含んでいる ここでは近傍に含まれる観測値の殆どが着目点より大き い平均値を持つので上向きのバイアスを持つ LOESSだとバイアスが1次まで除去される
16.
局所重み付け回帰 (LOESS): 推定値 局所重み付け回帰ではそれぞれの着目点x0において 別々に重み付き最小2乗誤差問題 を解く この時推定値は このモデルは領域のすべてのデータを使って線形モデ ルを当てはめるが、単一の点x0を評価するためだけに 使っている min !(!!),!(!!) !! !!, !!
[!! − α !! − β !! !!] ! ! !!! ! !! = α !! + β !! !!
17.
ベクトル値関数をb(x)T = (1, x) 第i行がでb(x)TであるN×2の回帰行列 = B 第i対角要素がKλ(x0, xi)であるN×Nの対角行列 = W(x0) とすると、先程の推定値 は の様に書ける 重みli(x0)は重み付きカーネルと最小二乗法を組み合わ せたもので等価カーネルと呼ばれる 局所重み付け回帰 (LOESS): 等価カーネル ! !! =
! !! ! !!! !! ! !!!!! !! ! = !! !! !! ! !!! ! !! = α !! + β !! !! (推定値がyiに対し線形, li(x0)が重み)
18.
局所重み付け回帰 (LOESS): カーネルの自動手直し Elements of StaRsRcal Learning (second ediRon): Fig. 6.4 HasRe, Tibshirani and Friedman (2009) 緑: 局所回帰に対する等価カーネル 黄色 ナダラヤ=ワトソン局所平均に対する等価カーネル ナダラヤ=ワトソンだと重みが対称になっているが、局所回帰の場 合は非対称性に起因するバイアスを修正するように重みを改良
19.
局所重み付け回帰 (LOESS): 推定値の期待値 !! !! =
!! !! !(!!) ! !!! = !(!!) !! !! ! !!! + !! (!!) !! − !! ! !!! !! !! + !!! (!!) 2 !! − !! ! !! !! + ! ! !!! 残差項Rはfの3次またはそれ以上の導関数を含む 滑らかさについての過程が適切なら通常は小さい値になる 局所線形回帰では = 1, = 0 なので、第2項まではf(x0)と一緒 バイアスは - f(x0)なので、バイアスはfの展開の2次以上に依存 局所回帰の線形性と真の関数fのx0周りの級数展開から推定値の期 待値について考える !! − !! ! !!! !! !! !! − !! !!! !! + ! ! !!! !! !! = !! !! !(!!) ! !!!
20.
局所重み付け回帰 (LOESS): 多項式の場合 LOESS1次 LOESS2次
21.
局所重み付け回帰 (LOESS): 多項式の場合 局所2次回期だと個々のバイアスを修正できる (分散は増加する) 次数に関してバイアス=バリアンストレードオフがあるので 末端部分などでの分散が大きくなりやすい LOESS1次 LOESS2次
22.
局所重み付け回帰 (LOESS): 多項式の場合 min !(!!),!(!!) !! !!, !!
[!! − α !! − β !! !!]! ! !!! LOESS1次 LOESSd次 min !(!!),!(!!),!!!,…,! !! !!, !! [!! − α !! − β! !! !! ! ! !!! ] !! !!! LOESS1次 LOESS2次
23.
局所重み付け回帰 (LOESS): 多項式まとめ 局所線形当てはめは分散を大きくしすぎることなく バイアスを減らせる 2次当てはめだと境界のバイアスを減らさないが分 散を大きく増加させる 2次当てはめは多くの場合領域内部の関数の湾曲 に起因するバイアスを上手く減らせる 漸近解析より、奇数次数の多項式が偶数のそれよ り支配的であることが期待される MSEが境界の影響に支配されるため(?)
24.
カーネル幅の選択 カーネル幅色々 イパネクニコフ, 矩形3次: 台領域の半径 ガウスカーネル: 標準偏差 k近傍: kの数 窓の幅が変わると? 窓が狭い: 推定値がx0に近い少数のyiの平均になり、分散 は対応するyiの分散より相対的に大きくなる 推定値の期待値がf(x0)に近づくのでバイアスは小さくなる 窓が広い: 上記の逆
25.
多次元における局所回帰 カーネル平滑化, 局所回帰はより高次元へ自然に一般化 される ナダラヤ=ワトソンカーネル平滑化 p次元カーネルによって与えられる重みを局所的に一定 値に割り当て 局所線形回帰 p次元カーネルによって与えられる重みで重み付けされた 最小2乗法により, Xの空間において局所的に超平面を割 り当て
26.
多次元における局所回帰 b(X)をXに含まれる最大次数dの多項式ベクトルとする d = 1, p = 2のときb(X) = (1, X1, X2), d = 2のときb(X) = (1, X1, X2, X1 2, X2 2, X1, X2) d = 0のときb(X) = 1 それぞれのx0 ∈ Rp において を解いて の当てはめを得る min !(!!) !! !!,
!! (!! − ! !! ! β !! ) ! ! !!! ! !! = ! !! !β !!
27.
多次元における局所回帰 !! !!, !
= ! 𝑥 − 𝑥! λ このカーネルはイパネクニコフや矩形3次みたいな 動径関数になる ll・llはユークリッドノルム ユークリッドノルムは座標の単位に依存するので、 平滑化に先立ち変数の標準化をしておくと良い
28.
多次元における局所回帰: 図示 galaxyデータの局所解析 幅=15%とした 散布図などは大まかな傾向見 るには良いが、条件ごとに図を 用意するほうが良いかも?
29.
多次元における局所回帰: 図示 Elements of StaRsRcal Learning (second ediRon): Fig. 6.9 HasRe, Tibshirani and Friedman (2009) 条件ごとに図を用意した図 ElemStatLearn pakageに データはあるものの記述の 条件がイマイチ不明…
30.
多次元における局所回帰: 問題点 1次元平滑化のとき 境界での当てはめに問題があった 多次元のとき 境界上の各点の比率が大きくなるのでより大きな問題に このため3次元よりもはるかに次元が高い場合、局所回 帰はあまり有用ではなくなってしまう 次元数pに対して指数的に総標本数が増えないと…
31.
多次元における構造化局所回帰 次元数pに対して指数的に総標本数が増えないと局所 回帰はあまり役に立たないので、何らかの内部構造を仮 定して次元削減的なことをするとうまくいく事がある → 構造化局所回帰 その中でも 構造化カーネル, 構造化回帰関数がカーネル法に直接 関連するアプローチとして知られている
32.
多次元における構造化局所回帰: 構造化カーネル カーネルを修正し、半正定値行列Aを異なる座標の重み 付けに使うと良い 半正定値行列Aに適切な制約を課すと、幾つかの座標 や方向をまるごと取り除いたり、寄与を小さくできる ex. Aが対角行列ならAjj要素の大きさを変えることで予測 変数Xjの影響を変えることができる 予測変数が多数あり、かつそれらの相関が強い時など その他射影追跡回帰などは11章で !!,! !!, !
= ! ! − !! !! ! − !! λ
33.
多次元における構造化局所回帰:構造化回帰関数 任意の相互作用が存在しうる回帰関数 E(Y | X) = f(X1, X2,...,Xp) を当てはめることを試みる 下記のような分散分析の形を分解を考える この中の高次の項を幾つか取り除くことで構造を導入 ex. 加法的モデルなら主要項だけを仮定し、2次のモデル の場合は高々2次の交互作用をもつ項を含むようにする等 → 9章で詳細 ! !!, !!,
… , !! = α + !! !! ! + !!" !!, !! !!! +
34.
多次元における構造化局所回帰:構造化回帰関数 これら構造化モデルの中でも 係数変化モデルは特に重要な具体例 Xに含まれる予測変数をp個の集合(X1, X2,...Xq)(q < p) と 残りの変数をベクトルZにまとめたものに分割したとする このとき条件付き線形モデル を仮定する これは線形モデルだがそれぞれの係数はZによって異なっ ており、これを局所重み付き最小2乗法に当てはめるもの ! ! =
α ! + β Z !! + + β! ! !! min !(!!),!(!!) !! !!, !! (!! − α !! − !!!β !!! − − !!!β! !!! ) ! ! !!!
35.
多次元における構造化局所回帰:構造化回帰関数(作図) Elements of StaRsRcal Learning (second ediRon): Fig. 6.10 HasRe, Tibshirani and Friedman (2009) 大動脈の直径データ ElemStatLearn packageに含まれず?
36.
多次元における構造化局所回帰:構造化回帰関数(作図) Elements of StaRsRcal Learning (second ediRon): Fig. 6.10 HasRe, Tibshirani and Friedman (2009) 加齢とともに大動脈は太くなるが、性別や動脈の深度で 長さが変わると予想し、男女でモデルを分けて作った
37.
多次元における構造化局所回帰:構造化回帰関数(作図) Elements of StaRsRcal Learning (second ediRon): Fig. 6.10 HasRe, Tibshirani and Friedman (2009) 確かに年齢とともに太くなっているが、 その傾向は大動脈に沿った距離とともに弱まる
38.
まとめ 局所重み付き回帰だと に一手間加えたり、 カーネル平滑化だと のDの中身を入れ替えることで色々調節できるよ min !(!!),!(!!) !! !!, !!
[!! − α !! − β !! !!] ! ! !!! !! !!, ! = ! 𝑥 − 𝑥! λ
39.
参考資料 ナダラヤ・ワトソン推定量を用いたノンパラメトリック回帰 hhp://www.math.hc.keio.ac.jp/itoseminar/index.php?%B1%CA %B0%E6%A1%A6%A5%CE%A5%F3%A5%D1%A5%E9%A5%E1%A5%C8%A5%EA %A5%C3%A5%AF%B2%F3%B5%A2%A1%C1NW%BF%E4%C4%EA%CE%CC%A1%C1 カーネル平滑化のメモ hhp://entertainment-lab.blogspot.jp/2010/08/blog-post.html コンパクト性、開被覆 hhp://d.hatena.ne.jp/Zellij/20120515/p1
Download