Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Daisuke Yoneoka
2,016 views
独立成分分析 ICA
Murphy Ch12.
Data & Analytics
◦
Read more
0
Save
Share
Embed
Embed presentation
Download
Downloaded 20 times
1
/ 10
2
/ 10
3
/ 10
4
/ 10
5
/ 10
6
/ 10
7
/ 10
8
/ 10
9
/ 10
10
/ 10
More Related Content
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PDF
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
PPTX
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
PDF
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
by
京都大学大学院情報学研究科数理工学専攻
PPTX
K shapes zemiyomi
by
kenyanonaka
PDF
深層学習による非滑らかな関数の推定
by
Masaaki Imaizumi
PPTX
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...
by
Daichi Kitamura
PPTX
Graph convolution (スペクトルアプローチ)
by
yukihiro domae
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
by
京都大学大学院情報学研究科数理工学専攻
K shapes zemiyomi
by
kenyanonaka
深層学習による非滑らかな関数の推定
by
Masaaki Imaizumi
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...
by
Daichi Kitamura
Graph convolution (スペクトルアプローチ)
by
yukihiro domae
What's hot
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PDF
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
PPTX
劣微分
by
ShintaUrakami
PDF
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
PPTX
音源分離における音響モデリング(Acoustic modeling in audio source separation)
by
Daichi Kitamura
PPTX
【解説】 一般逆行列
by
Kenjiro Sugimoto
PDF
最適輸送入門
by
joisino
PDF
変分推論法(変分ベイズ法)(PRML第10章)
by
Takao Yamanaka
PDF
Direct feedback alignment provides learning in Deep Neural Networks
by
Deep Learning JP
PDF
PRML輪読#1
by
matsuolab
PPTX
カルマンフィルタ入門
by
Yasunori Nihei
PPTX
効用最大化理論の観点から見る強化学習
by
Kenta Ishii
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
PPTX
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
by
RyuichiKanoh
PDF
Rでisomap(多様体学習のはなし)
by
Kohta Ishikawa
PDF
スパースモデリング入門
by
Hideo Terada
PDF
ウィナーフィルタと適応フィルタ
by
Toshihisa Tanaka
PDF
Bayes Independence Test - HSIC と性能を比較する-
by
Joe Suzuki
PDF
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
PPTX
[DL輪読会]Attentive neural processes
by
Deep Learning JP
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
劣微分
by
ShintaUrakami
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
音源分離における音響モデリング(Acoustic modeling in audio source separation)
by
Daichi Kitamura
【解説】 一般逆行列
by
Kenjiro Sugimoto
最適輸送入門
by
joisino
変分推論法(変分ベイズ法)(PRML第10章)
by
Takao Yamanaka
Direct feedback alignment provides learning in Deep Neural Networks
by
Deep Learning JP
PRML輪読#1
by
matsuolab
カルマンフィルタ入門
by
Yasunori Nihei
効用最大化理論の観点から見る強化学習
by
Kenta Ishii
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
by
RyuichiKanoh
Rでisomap(多様体学習のはなし)
by
Kohta Ishikawa
スパースモデリング入門
by
Hideo Terada
ウィナーフィルタと適応フィルタ
by
Toshihisa Tanaka
Bayes Independence Test - HSIC と性能を比較する-
by
Joe Suzuki
知識グラフの埋め込みとその応用 (第10回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
[DL輪読会]Attentive neural processes
by
Deep Learning JP
Viewers also liked
PDF
独立成分分析とPerfume
by
Yurie Oka
PPTX
独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...
by
Daichi Kitamura
PPTX
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
by
Daichi Kitamura
PDF
Kameoka2017 ieice03
by
kame_hirokazu
PDF
Numpy scipyで独立成分分析
by
Shintaro Fukushima
PPTX
2014 3 13(テンソル分解の基礎)
by
Tatsuya Yokota
PDF
フリーソフトウェアを通じた多変量解析講習
by
h_yama2396
PDF
正準相関分析
by
Akisato Kimura
PDF
再発事象の解析をやってみる
by
Atsushi Hayakawa
PDF
Juliaを使った機械学習
by
Aki Ariga
PDF
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2
by
Computational Materials Science Initiative
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PPTX
121218 zansa13 for web
by
Zansa
PDF
tokyor29th
by
Mikiya Tanizawa
PPTX
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
by
Zansa
PPTX
Zansa第12回資料 「ソーシャルゲームでは、データがユーザーを理解する!」
by
Shota Kubo
PPTX
Optimal divergence diversity for superresolution-based nonnegative matrix fac...
by
Daichi Kitamura
独立成分分析とPerfume
by
Yurie Oka
独立性に基づくブラインド音源分離の発展と独立低ランク行列分析 History of independence-based blind source sep...
by
Daichi Kitamura
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
by
Daichi Kitamura
Kameoka2017 ieice03
by
kame_hirokazu
Numpy scipyで独立成分分析
by
Shintaro Fukushima
2014 3 13(テンソル分解の基礎)
by
Tatsuya Yokota
フリーソフトウェアを通じた多変量解析講習
by
h_yama2396
正準相関分析
by
Akisato Kimura
再発事象の解析をやってみる
by
Atsushi Hayakawa
Juliaを使った機械学習
by
Aki Ariga
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2
by
Computational Materials Science Initiative
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
121218 zansa13 for web
by
Zansa
tokyor29th
by
Mikiya Tanizawa
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
by
Zansa
Zansa第12回資料 「ソーシャルゲームでは、データがユーザーを理解する!」
by
Shota Kubo
Optimal divergence diversity for superresolution-based nonnegative matrix fac...
by
Daichi Kitamura
Similar to 独立成分分析 ICA
PDF
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
by
Morpho, Inc.
PDF
Supervised PCAとその周辺
by
Daisuke Yoneoka
PPTX
独立性基準を用いた非負値行列因子分解の効果的な初期値決定法(Statistical-independence-based efficient initia...
by
Daichi Kitamura
PPTX
第五回統計学勉強会@東大駒場
by
Daisuke Yoneoka
PPTX
ILRMA 20170227 danwakai
by
SaruwatariLabUTokyo
PPTX
ウェアラブルセンサによる歩行データからの転倒動作検出の試み
by
Matsushita Laboratory
PPTX
第13回 KAIM 金沢人工知能勉強会 混合した信号を分解する視点からみる主成分分析
by
tomitomi3 tomitomi3
PPTX
論文紹介 Deterministic Independent Component Analysis
by
Kazuto Fukuchi
PDF
palla et al, a nonparametric variable clustering method
by
Zenghan Liang
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
by
Morpho, Inc.
Supervised PCAとその周辺
by
Daisuke Yoneoka
独立性基準を用いた非負値行列因子分解の効果的な初期値決定法(Statistical-independence-based efficient initia...
by
Daichi Kitamura
第五回統計学勉強会@東大駒場
by
Daisuke Yoneoka
ILRMA 20170227 danwakai
by
SaruwatariLabUTokyo
ウェアラブルセンサによる歩行データからの転倒動作検出の試み
by
Matsushita Laboratory
第13回 KAIM 金沢人工知能勉強会 混合した信号を分解する視点からみる主成分分析
by
tomitomi3 tomitomi3
論文紹介 Deterministic Independent Component Analysis
by
Kazuto Fukuchi
palla et al, a nonparametric variable clustering method
by
Zenghan Liang
More from Daisuke Yoneoka
PDF
セミパラメトリック推論の基礎
by
Daisuke Yoneoka
PPTX
ブートストラップ法とその周辺とR
by
Daisuke Yoneoka
PDF
Deep directed generative models with energy-based probability estimation
by
Daisuke Yoneoka
PDF
Sparse models
by
Daisuke Yoneoka
PPTX
第一回統計学勉強会@東大駒場
by
Daisuke Yoneoka
PPTX
MCMC法
by
Daisuke Yoneoka
PPTX
第二回統計学勉強会@東大駒場
by
Daisuke Yoneoka
PPTX
第七回統計学勉強会@東大駒場
by
Daisuke Yoneoka
PPTX
第四回統計学勉強会@東大駒場
by
Daisuke Yoneoka
PPTX
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
by
Daisuke Yoneoka
PPTX
第三回統計学勉強会@東大駒場
by
Daisuke Yoneoka
PDF
Murphy: Machine learning A probabilistic perspective: Ch.9
by
Daisuke Yoneoka
PPTX
Sequential Kernel Association Test (SKAT) for rare and common variants
by
Daisuke Yoneoka
PPTX
Higher criticism, SKAT and SKAT-o for whole genome studies
by
Daisuke Yoneoka
PDF
PCA on graph/network
by
Daisuke Yoneoka
PDF
ML: Sparse regression CH.13
by
Daisuke Yoneoka
PPTX
Rで学ぶデータサイエンス第1章(判別能力の評価)
by
Daisuke Yoneoka
セミパラメトリック推論の基礎
by
Daisuke Yoneoka
ブートストラップ法とその周辺とR
by
Daisuke Yoneoka
Deep directed generative models with energy-based probability estimation
by
Daisuke Yoneoka
Sparse models
by
Daisuke Yoneoka
第一回統計学勉強会@東大駒場
by
Daisuke Yoneoka
MCMC法
by
Daisuke Yoneoka
第二回統計学勉強会@東大駒場
by
Daisuke Yoneoka
第七回統計学勉強会@東大駒場
by
Daisuke Yoneoka
第四回統計学勉強会@東大駒場
by
Daisuke Yoneoka
Rで学ぶデータサイエンス第13章(ミニマックス確率マシン)
by
Daisuke Yoneoka
第三回統計学勉強会@東大駒場
by
Daisuke Yoneoka
Murphy: Machine learning A probabilistic perspective: Ch.9
by
Daisuke Yoneoka
Sequential Kernel Association Test (SKAT) for rare and common variants
by
Daisuke Yoneoka
Higher criticism, SKAT and SKAT-o for whole genome studies
by
Daisuke Yoneoka
PCA on graph/network
by
Daisuke Yoneoka
ML: Sparse regression CH.13
by
Daisuke Yoneoka
Rで学ぶデータサイエンス第1章(判別能力の評価)
by
Daisuke Yoneoka
独立成分分析 ICA
1.
ICA: 独立成分分析 Daisuke Yoneoka March
2, 2015 Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 1 / 10
2.
Notations Latent: zt ∈
RL Observed: xt ∈ RD t は時間でとりあえず時間異存なし Cocktail party problem, blind signal separation, blind source separation とも 呼ばれる. Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 2 / 10
3.
ICA 導入 xt =
W Zt + εt という構造 W は D × L の mixing matrix or generative weights εt ∼ N(0, Ψ), ただし簡単化のために ∥Ψ∥ = 0 目標は p(zt|xt, θ) を求めること! (僕の考えた)PCA と ICA の違い: PCA: 信号の強さ (固有値の大きさ) に注目し、それらは相関 = 0 ICA: 信号が独立に分離できることを重視している でも Varimax しながらの PCA と何が違うのかわからない... Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 3 / 10
4.
Prior に Non
Gauss を PCA とその周辺では z の prior に Gaussian を仮定していた. p(zt) = ΠL j=1N(zij|0, 1) 独立と無相関の違い:(一般的に言って) 独立は無限のクロスモーメント=0 で, 無相関は二次のモーメントが 0 PCA の Gaussian の場合は, 3 次以上のモーメントが 0 なので, 独立=無相関 結果として回転に対する不定性を残す ICA は Non Gaussian を仮定することで回転に対する不定性を除く. p(zt) = ΠL j=1pj(zij) 順序に対する不定性と power に対する不定性は, それでも残る W ∗ = P ΛW で P は permutation, Λ は強さを変換する行列 Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 4 / 10
5.
推定法概説 基本的には Information bottleneck
というか相互情報量を最小化していく. I(z) = H(zt) − H(z) I(z) は相互情報量で Kullback Leibler distance H(z) = − g(z) log g(z)dz はエントロピー x を中心化と白色化 (ie.E[xxT ] = I) で,z の分散は 1 にしておくと cov(x) = E[xxT ] = WE[zzT ]WT より W は orthogonal に限定できる 他にも H(zt) の代わりに Negentropy を使うこともある (Hyvarinen and Oja (2000)). J(Yj) = H(Zj) − H(Yj) ただし,Zj is a Gaussian random variable with the same variance as Yj. Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 5 / 10
6.
Maximum likelihood estimation x
= W z より, px(xt) = px(W zt) = pz(zt)|det(W −1 )| = pz(V xt|det(V )|), ただし V −1 = W T が iid とすると, 対数尤度は 1 T log p(D|V ) = log |det(V )| + 1 T j t log pj(vT j xt) 第一項は V が orthogonal なので定数 第二項を V が orthogonal という制約下で最小化すれば良い Gradient descent: 遅い Natural descent: MacKay, 2003 Newton method or EM. Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 6 / 10
7.
FastICA (Hyvarinen and
Oja (2000)) 要は, Newton 方を ICA 用に変更?簡単化のために z は一次元で, しかもその分布 が分かるとする. G(z) = − log p(z) で, g(z) = d dz G(z) かつ β = −2λ とすると f(v) = E[G(vT x)] + λ(1 − vT x) ∇f(v) = E[xg(vT x)] − βv H(v) = E[xxT g ′ (vT x)] − βI 次のような近似を考える: E[xxT g ′ (vT x)] ≈ E[xxT ]E[g ′ (vT x)] = E[g ′ (vT x)] これによってヘシアンが簡単になるので Newton 法は v∗ = E[xg(vT x)] − E[g ′ (vT x)]v が簡単になる vnew = v∗ ∥v∗∥ で更新すれば OK Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 7 / 10
8.
Non Gaussianって何使えばいいの? Super-Gaussian (leptokurtic):
ラプラス分布とかがこのクラス. 中心が尖っ て裾長. Sub-Gaussian (platykurtic): 負の尖度を持つクラス. kurt(z) = E[(Z − E[Z])4 ] σ4 − 3 Skewed distribution: ガンマ分布なんかがこのクラス. skew(z) = E[(Z − E[Z])3 ] σ3 Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 8 / 10
9.
EM for ICA p(z)
を仮定する代わりに正規混合みたいなのを考えてもいいんじゃないか? p(qj = k) = πk p(zj|qj = k) = N(µjk, σ2 jk) p(x|z) = N(W z, Ψ) ポイントは E[zt|xt, θ] が qt での全パターンの summary を考えることでで きる点. かなり expendive な場合は変分法でもできる (Attias 1999). 次に E[zt] を GMM なんかで推定する 最後に pj(zj) = K k=1 πjkN(zj|µjk, σ2 jk) を推定する. Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 9 / 10
10.
その他の推定法 最尤法だけじゃないよ! 詳細は Hyvarinen and
Oja (2000) を御覧ください. エントロピーを最大化じゃなくネジェントロピーの最大化 相互情報量の最小化 相互情報量の最大化 (infomax) Daisuke Yoneoka ICA: 独立成分分析 March 2, 2015 10 / 10
Download