Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Joe Suzuki
PDF, PPTX
2,548 views
相互情報量を用いた独立性の検定
鈴木譲が、2015年6月23日に沖縄科学技術大学院大学で発表したスライド。
Science
◦
Read more
3
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 26
2
/ 26
3
/ 26
4
/ 26
5
/ 26
6
/ 26
7
/ 26
8
/ 26
9
/ 26
10
/ 26
11
/ 26
12
/ 26
13
/ 26
14
/ 26
15
/ 26
16
/ 26
17
/ 26
18
/ 26
19
/ 26
20
/ 26
21
/ 26
22
/ 26
23
/ 26
24
/ 26
25
/ 26
26
/ 26
More Related Content
PDF
因果探索: 基本から最近の発展までを概説
by
Shiga University, RIKEN
PDF
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
by
hoxo_m
PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
PDF
機械学習におけるオンライン確率的最適化の理論
by
Taiji Suzuki
PDF
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
by
Deep Learning JP
PDF
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
by
Fujimoto Keisuke
PDF
[DL輪読会]近年のエネルギーベースモデルの進展
by
Deep Learning JP
PPTX
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
因果探索: 基本から最近の発展までを概説
by
Shiga University, RIKEN
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
by
hoxo_m
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
機械学習におけるオンライン確率的最適化の理論
by
Taiji Suzuki
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
by
Deep Learning JP
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
by
Fujimoto Keisuke
[DL輪読会]近年のエネルギーベースモデルの進展
by
Deep Learning JP
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
What's hot
PDF
深層生成モデルと世界モデル(2020/11/20版)
by
Masahiro Suzuki
PDF
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PDF
【メタサーベイ】Vision and Language のトップ研究室/研究者
by
cvpaper. challenge
PDF
数式からみるWord2Vec
by
Okamoto Laboratory, The University of Electro-Communications
PPTX
[DL輪読会] マルチエージェント強化学習と心の理論
by
Deep Learning JP
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
by
Deep Learning JP
PDF
関数データ解析の概要とその方法
by
Hidetoshi Matsui
PDF
PRML学習者から入る深層生成モデル入門
by
tmtm otm
PDF
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
by
Shiga University, RIKEN
PDF
トピックモデルの評価指標 Perplexity とは何なのか?
by
hoxo_m
PDF
12. Diffusion Model の数学的基礎.pdf
by
幸太朗 岩澤
PDF
[DL輪読会]Understanding Black-box Predictions via Influence Functions
by
Deep Learning JP
PDF
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
by
Koichiro Gibo
PDF
【DL輪読会】A Path Towards Autonomous Machine Intelligence
by
Deep Learning JP
PDF
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
PDF
Transformerを多層にする際の勾配消失問題と解決法について
by
Sho Takase
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
by
Masanao Ochi
PDF
比例ハザードモデルはとってもtricky!
by
takehikoihayashi
PDF
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
by
SSII
深層生成モデルと世界モデル(2020/11/20版)
by
Masahiro Suzuki
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
【メタサーベイ】Vision and Language のトップ研究室/研究者
by
cvpaper. challenge
数式からみるWord2Vec
by
Okamoto Laboratory, The University of Electro-Communications
[DL輪読会] マルチエージェント強化学習と心の理論
by
Deep Learning JP
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
by
Deep Learning JP
関数データ解析の概要とその方法
by
Hidetoshi Matsui
PRML学習者から入る深層生成モデル入門
by
tmtm otm
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
by
Shiga University, RIKEN
トピックモデルの評価指標 Perplexity とは何なのか?
by
hoxo_m
12. Diffusion Model の数学的基礎.pdf
by
幸太朗 岩澤
[DL輪読会]Understanding Black-box Predictions via Influence Functions
by
Deep Learning JP
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
by
Koichiro Gibo
【DL輪読会】A Path Towards Autonomous Machine Intelligence
by
Deep Learning JP
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
Transformerを多層にする際の勾配消失問題と解決法について
by
Sho Takase
【論文紹介】How Powerful are Graph Neural Networks?
by
Masanao Ochi
比例ハザードモデルはとってもtricky!
by
takehikoihayashi
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
by
SSII
Similar to 相互情報量を用いた独立性の検定
PDF
Bayes Independence Test - HSIC と性能を比較する-
by
Joe Suzuki
PDF
連続変量を含む相互情報量の推定
by
Joe Suzuki
PPTX
連続変量を含む条件付相互情報量の推定
by
Joe Suzuki
PDF
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
by
Yuya Takashina
PPT
変数選択におけるAICの利用:理論と実装
by
sstat3
PDF
星野「調査観察データの統計科学」第3章
by
Shuyo Nakatani
PDF
imset による条件付き独立性の記述(文献紹介)
by
Tomonari Sei
PDF
15min nov25
by
Ozawa Kensuke
PDF
NLPforml5
by
Hidekazu Oiwa
PPT
2 Info Theory
by
melvincabatuan
PDF
統計的因果推論 勉強用 isseing333
by
Issei Kurahashi
PDF
PRML2.1 2.2
by
Takuto Kimura
PDF
Prml2.1 2.2,2.4-2.5
by
Takuto Kimura
PDF
Probabilistic Graphical Models 輪読会 Chapter5
by
Daiki Shimada
PPTX
Introduction to Statistical Estimation (統計的推定入門)
by
Taro Tezuka
PPT
K070k80 点推定 区間推定
by
t2tarumi
PPTX
相互情報量.pptx
by
Tanaka Hayato
PDF
クラシックな機械学習入門 1 導入
by
Hiroshi Nakagawa
PPTX
異常検知と変化検知の1~3章をまとめてみた
by
Takahiro Yoshizawa
PDF
ノンパラベイズ入門の入門
by
Shuyo Nakatani
Bayes Independence Test - HSIC と性能を比較する-
by
Joe Suzuki
連続変量を含む相互情報量の推定
by
Joe Suzuki
連続変量を含む条件付相互情報量の推定
by
Joe Suzuki
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
by
Yuya Takashina
変数選択におけるAICの利用:理論と実装
by
sstat3
星野「調査観察データの統計科学」第3章
by
Shuyo Nakatani
imset による条件付き独立性の記述(文献紹介)
by
Tomonari Sei
15min nov25
by
Ozawa Kensuke
NLPforml5
by
Hidekazu Oiwa
2 Info Theory
by
melvincabatuan
統計的因果推論 勉強用 isseing333
by
Issei Kurahashi
PRML2.1 2.2
by
Takuto Kimura
Prml2.1 2.2,2.4-2.5
by
Takuto Kimura
Probabilistic Graphical Models 輪読会 Chapter5
by
Daiki Shimada
Introduction to Statistical Estimation (統計的推定入門)
by
Taro Tezuka
K070k80 点推定 区間推定
by
t2tarumi
相互情報量.pptx
by
Tanaka Hayato
クラシックな機械学習入門 1 導入
by
Hiroshi Nakagawa
異常検知と変化検知の1~3章をまとめてみた
by
Takahiro Yoshizawa
ノンパラベイズ入門の入門
by
Shuyo Nakatani
More from Joe Suzuki
PPTX
RとPythonを比較する
by
Joe Suzuki
PPTX
R集会@統数研
by
Joe Suzuki
PPTX
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
by
Joe Suzuki
PPTX
分枝限定法でモデル選択の計算量を低減する
by
Joe Suzuki
PPTX
E-learning Design and Development for Data Science in Osaka University
by
Joe Suzuki
PPTX
UAI 2017
by
Joe Suzuki
PPTX
AMBN2017 サテライトワークショップ
by
Joe Suzuki
PPTX
CRAN Rパッケージ BNSLの概要
by
Joe Suzuki
PPTX
Forest Learning from Data
by
Joe Suzuki
PPTX
A Bayesian Approach to Data Compression
by
Joe Suzuki
PDF
A Conjecture on Strongly Consistent Learning
by
Joe Suzuki
PDF
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
by
Joe Suzuki
PDF
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
by
Joe Suzuki
PPTX
研究紹介(学生向け)
by
Joe Suzuki
PDF
Bayesian Criteria based on Universal Measures
by
Joe Suzuki
PDF
MDL/Bayesian Criteria based on Universal Coding/Measure
by
Joe Suzuki
PDF
The Universal Measure for General Sources and its Application to MDL/Bayesian...
by
Joe Suzuki
PDF
Universal Prediction without assuming either Discrete or Continuous
by
Joe Suzuki
PDF
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
by
Joe Suzuki
PDF
The Universal Bayesian Chow-Liu Algorithm
by
Joe Suzuki
RとPythonを比較する
by
Joe Suzuki
R集会@統数研
by
Joe Suzuki
E-learning Development of Statistics and in Duex: Practical Approaches and Th...
by
Joe Suzuki
分枝限定法でモデル選択の計算量を低減する
by
Joe Suzuki
E-learning Design and Development for Data Science in Osaka University
by
Joe Suzuki
UAI 2017
by
Joe Suzuki
AMBN2017 サテライトワークショップ
by
Joe Suzuki
CRAN Rパッケージ BNSLの概要
by
Joe Suzuki
Forest Learning from Data
by
Joe Suzuki
A Bayesian Approach to Data Compression
by
Joe Suzuki
A Conjecture on Strongly Consistent Learning
by
Joe Suzuki
A Generalization of the Chow-Liu Algorithm and its Applications to Artificial...
by
Joe Suzuki
A Generalization of Nonparametric Estimation and On-Line Prediction for Stati...
by
Joe Suzuki
研究紹介(学生向け)
by
Joe Suzuki
Bayesian Criteria based on Universal Measures
by
Joe Suzuki
MDL/Bayesian Criteria based on Universal Coding/Measure
by
Joe Suzuki
The Universal Measure for General Sources and its Application to MDL/Bayesian...
by
Joe Suzuki
Universal Prediction without assuming either Discrete or Continuous
by
Joe Suzuki
Bayesian network structure estimation based on the Bayesian/MDL criteria when...
by
Joe Suzuki
The Universal Bayesian Chow-Liu Algorithm
by
Joe Suzuki
相互情報量を用いた独立性の検定
1.
. ...... 相互情報量の推定と独立性検定 鈴木 譲 大阪大学大学院理学研究科 沖縄科学技術大学院大学 2015 年
6 月 23 日 「slideshare Joe Suzuki」で検索 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
2.
Road Map ...1 独立性を検定する ...2
離散の場合 ...3 連続な場合 ...4 HSIC ...5 実験 ...6 まとめ 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
3.
独立性を検定する 動機 例 (x1, y1),
· · · , (xn, yn) から、X ⊥⊥ Y (独立) か否かを判定したい xn = (x1, · · · , xn), yn = (y1, · · · , yn) と書き、それぞれ i.i.d とする ρ(X, Y ) := cov(X, Y ) √ V (X)V (Y ) = 0 ⇐= ̸=⇒ X ⊥⊥ Y 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
4.
独立性を検定する ⃝⃝ (X, Y
) = 0 ⇐⇒ X ⊥⊥ Y となる⃝⃝ 相互情報量 I(X, Y ) := ∑ x ∑ y PXY (x, y) log PXY (x, y) PX (x)PY (y) I(X, Y ) = 0 ⇐⇒ X ⊥⊥ Y Hilbert Schmidt independent criterion (ρ(X, Y ) の非線形版) HSIC(X, Y ) = 0 ⇐⇒ X ⊥⊥ Y . X ⊥⊥ Y か否か .. ......(x1, y1), · · · , (xn, yn) から計算できる、I(X, Y ), HSIC(X, Y ) の推定量 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
5.
離散の場合 相互情報量の最尤推定量による対処 X, Y :
離散 In(xn , yn ) := ∑ x ∑ y ˆPn(x, y) log ˆPn(x, y) ˆPn(x)ˆPn(y) ˆPn(x, y), ˆPn(x), ˆPn(y): 相対頻度 n → ∞ で、In(x, y) → I(X, Y ) X ⊥⊥ Y であっても、In(xn, yn) ̸= 0 が確率 1 で無限回、 In(xn , yn ) < ϵn ⇐⇒ X ⊥⊥ Y なる {ϵn} を設定する必要がある X, Y が連続の場合にまで、拡張できない 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
6.
離散の場合 データ圧縮とユニバーサル確率 A: 有限集合 以下の符号化 φ
で、 ∑ 2−m ≤ 1 を満足するものを考える: φ : An → {0, 1}∗ xn → zm = φ(xn ) . Lempel-Ziv (lzh, gzip etc.) .. ...... Xn = xn の確率 Pn X によらず、n → ∞ で確率 1 で、圧縮率 m n → H(X) Qn X (xn ) := 2−m 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
7.
離散の場合 相互情報量の Bayes 推定量
(JS 2012) 有限集合 B, A × B についても、Qn Y (yn), Qn XY (xn, yn) を定義 X ⊥⊥ Y の事前確率 p が与えられている . 離散の場合 .. ...... pQn X (xn )Qn Y (yn ) ≥ (1 − p)Qn XY (xn , yn ) ⇐⇒ X ⊥⊥ Y が確率 1 で成立するような、Qn X , Qn Y , Qn XY が存在する 相互情報量の Bayes 推定量 Jn(xn , yn ) := 1 n log (1 − p)Qn XY (xn, yn) pQn X (xn)Qn Y (yn) 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
8.
離散の場合 MDL(minimum description length)
原理 例をあたえられたときに、 モデルの記述長 モデルを与えられたもとでの例の記述長 の合計が最小になるモデルを選択すべきだ (Rissanen, 1976) MDL(X ⊥⊥ Y ) := − log p − log Qn X (xn ) − log Qn Y (yn ) MDL(X ̸⊥⊥ Y ) := − log(1 − p) − log Qn XY (xn , yn ) . 一致性 .. ......MDL モデルは、n → ∞ で確率 1 で、真のモデルに一致する 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
9.
離散の場合 相互情報量の Bayes 推定量の漸近近似
(JS 1993) MDL の一致性は、独立性検定のそれを意味する: (Jn(xn, yn) は、マイナスの値を取りうる) Jn(xn , yn ) ≤ 0 ⇐⇒ MDL(X ⊥⊥ Y ) ≤ MDL(X ̸⊥⊥ Y ) α := |X|, β := |Y | として、 Jn(xn , yn ) ≈ In(xn .yn ) − (α − 1)(β − 1) 2n log n Jn(xn , yn ) ≤ 0 ⇐⇒ In(xn , yn ) ≤ ϵn := (α − 1)(β − 1) 2n log n n → ∞ で、Jn(xn, yn) → I(X, Y ) 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
10.
連続な場合 一般の場合のユニバーサル密度関数 レベル k での量子化:
xn = (x1, · · · , xn) → (a (k) 1 , · · · , a (k) n ) ... ... ... ... - - - Level 1 Level 2 Level k Qn 1 (a (1) 1 , · · · , a (1) n ) λ(a (1) 1 ) · · · λ(a (1) n ) Qn 2 (a (2) 1 , · · · , a (2) n ) λ(a (2) 1 ) · · · λ(a (2) n ) Qn k (a (k) 1 , · · · , a (k) n ) λ(a (k) 1 ) · · · λ(a (k) n ) wk > 0 , ∑ k wk = 1 , gn X (xn ) = ∑ k wk Qn i (a (k) 1 , · · · , a (k) n ) λ(a (k) 1 ) · · · λ(a (k) n ) 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
11.
連続な場合 K および {wk}
の選び方 K = O(log n): ビンの個数が、K とともに指数的に増 える ビンに含まれるサンプル数の下限を一 定以上にしたい {wk}: wk = 1/K としている (最後に課題として触れる) ... ... ... ... - - - - - - Level 1 Level 2 Level k 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
12.
連続な場合 相互情報量の Bayes 推定量:
一般的な場合 . 相互情報量の Bayes 推定量 .. ...... Jn(xn , yn ) := 1 n log (1 − p)gn XY (xn, yn) pgn X (xn)gn Y (yn) MDL の一般化: MDL(X ⊥⊥ Y ) := − log p − log gn X (xn ) − log gn Y (yn ) MDL(X ̸⊥⊥ Y ) := − log(1 − p) − log gn XY (xn , yn ) . 一致性: Jn(xn, yn) → I(X, Y ) .. ...... MDL モデルは、n → ∞ で確率 1 で、真のモデルに一致する X ⊥⊥ Y ⇐⇒ MDL(X ⊥⊥ Y ) ≤ MDL(X ̸⊥⊥ Y ) 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
13.
連続な場合 他の相互情報量の推定量との比較 推定量 強一致性 独立性検定
離散・連続& 計算時間 KDE N/A N/A √ O(n2) k-NN N/A N/A N/A O(n2) Silva, et.al √ N/A N/A O(n1+ϵ) 今回 √ √ √ O(n log2 n) KDE kernel density estimator (X, Y , XY の分布を kernel で推定する) k-NN k 個の最も近いサンプルで相対頻度を求める (最適な k を求めるのに時間がかかる) Silva, et.al Xn × Yn を有限個の領域に分割 IEEE Trans. on Signal Processing (2012) 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
14.
HSIC HSIC X, Y: X,
Y の値域 k : X × X → R (正定値 kernel) l : Y × Y → R (正定値 kernel) HSIC(PXY , k, l) := EXX′YY ′ k(X, X′ )l(Y , Y ′ ) +EXX′ k(X, X′ )EYY ′ l(Y , Y ′ ) − 2EXY {EX′ k(X, X′ )EY ′ l(Y , Y ′ )} (EXYX′Y ′ : PXY から発生する独立な 2 対 XY , X′Y ′ に関する平均) PXY (·, ·) → EXY [k(·, X)l(·, Y )] が X × Y と 1 対 1 となる (k, l) について、 HSIC(PXY , k, l) = 0 ⇐⇒ X ⊥⊥ Y (例) Gaussian kernel: σ2 > 0 を定数として、 k(x, x′ ) = exp{− (x − x′)2 2σ2 } , x, x′ ∈ X 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
15.
HSIC HSIC の推定量 K =
(k(xi , xj )), L = (l(yi , yj )), H = (δi,j − 1 n ) として、 HSIC(xn , yn , k, l) := 1 (n − 1)2 tr(KHLH) = 1 n2 ∑ i,j k(xi , xj )l(yi , yj ) + 1 n4 ∑ i,j k(xi , xj ) ∑ p,q l(yp, yq) − 2 n3 ∑ i,p.q k(xi , xp)l(yi , yq)} . HSIC の推定量の計算 .. ......O(n3) の計算時間 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
16.
HSIC HSIC による独立性検定 H0: xn
= (x1, · · · , xn), yn = (y1, · · · , yn) が独立 α = 0.05 並べ替え検定: ...1 yn をランダムに M 回並べなおして、 それぞれで HSIC(xn, yn, k, l) を計算 ...2 オリジナルの xn, yn の HSIC(xn, yn, k, l) が上位 Mα 以内な ら、独立でない (p 値が小さい) と判定 ...1 HSIC(xn, yn, k, l) → HSIC(PXY , k, l) が、概収束ではなく確率収束 ...2 独立性検定のしきい値 ϵ(n) が、xn, yn に依存 (並べ替え検定) ...3 帰無仮説をシミュレートするのに、HSIC の推定量を M 回計算 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
17.
実験 実験 1: 2
値の場合 X ∈ {0, 1} (等確率 0.5)、U ∈ {0, 1} (確率 p = 0.1, 0.2, 0.3, 0.4, 0.5) Y = X + U mod 2 n = 100, n = 200 Jn(xn, yn) and HSICn(xn, yn) を 100 回求め、分布を表示 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
18.
実験 独立性検定 n = 200
p=0.5 p=0.4 (100 trials) ⊥⊥ ̸⊥⊥ ⊥⊥ ̸⊥⊥ HSIC 95 5 24 76 相互情報量 94 6 19 81 n = 100 p=0.5 p=0.4 (100 trials) ⊥⊥ ̸⊥⊥ ⊥⊥ ̸⊥⊥ HSIC 95 5 49 51 相互情報量 88 12 33 67 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
19.
実験 実験 2: Gauss
の場合 X, U ∼ N(0, 1) (相互に独立) Y = qX + √ 1 − q2U, q = 0, 0.2, 0.4, 0.6, 0.8 n = 100, n = 200. Jn(xn, yn) and HSICn(xn, yn) を 100 回求め、分布を表示 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
20.
実験 独立性検定 n = 200
q=0 q=0.2 q=0.4 (100 trials) ⊥⊥ ̸⊥⊥ ⊥⊥ ̸⊥⊥ ⊥⊥ ̸⊥⊥ HSIC 97 3 51 49 0 100 相互情報量 95 5 58 42 4 92 n = 100 q=0 q=0.2 q=0.4 (100 trials) ⊥⊥ ̸⊥⊥ ⊥⊥ ̸⊥⊥ ⊥⊥ ̸⊥⊥ HSIC 93 7 74 26 11 89 相互情報量 94 6 56 44 23 77 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
21.
実験 HSIC では対応できない例 1:
まるめ X, U ∼ N(0, 0.25) (相互に独立) Y = X − ⌊X⌋ + ⌊U⌋ 整数部は X, Y で独立、小数点以下は X, Y で一致 n = 200 まるめ (100 試行) ⊥⊥ ̸⊥⊥ HSIC 100 0 相互情報量 1 99 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
22.
実験 HSIC では対応できない例 2:
奇偶 X ∈ {0, 1, · · · , 9} (一様) Y ∈ { {0, 2, 4, 6, 8}, X : even {1, 3, 5, 7, 9}, X : odd X + Y が偶数になるという制約がある n = 200 奇偶 (100 試行) ⊥⊥ ̸⊥⊥ HSIC 96 4 相互情報量 0 100 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
23.
実験 HSIC が得意とする典型的な例 U ∈
{−1, 1} (確率 1/2)、X ∼ N(0, 1) (X ⊥⊥ U)、Y = XU n = 200 相関係数 0 (100 trials) ⊥⊥ ̸⊥⊥ HSIC 0 100 相互情報量 12 88 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
24.
実験 実行時間 (実験 2) n
100 500 1000 2000 HSIC 0.50 9.51 40.28 185.53 相互情報量 0.30 0.33 0.62 1.05 (単位: 秒) . サンプル n に対して .. ......HSIC は O(n3)、相互情報量を用いた方法は O(n log2 n) 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
25.
まとめ まとめ 相互情報量の推定方法の提案と、独立性判定への応用 相互情報量 HSIC 原理 Bayes
仮説検定 強い問題 離散 連続 しきい値 不要 例から計算する 事前確率 必要 不要 計算時間 O(n log n) O(n3) 一致性 強一致性 弱一致性 . No Free Lunch 予想 .. ...... 一つの独立性検定が、すべての問題について、他のすべての独立性検定 より優れた性能を示すことはない 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
26.
まとめ 課題 離散や連続を仮定しない情報量基準への応用 R パッケージの公開: できてはいるが、最適化してからソースを公開 独立でないものを独立とみなす傾向
(過学習ではなく、未学習)。 wk = 1 K ではなく、wk = kα ∑K j=1 jα (α > 0) の方が性能がよい 鈴木 譲 (大阪大学大学院理学研究科) 相互情報量の推定と独立性検定 沖縄科学技術大学院大学 2015 年 6 月 23 日 / 26
Download