SlideShare a Scribd company logo
ANTS 29章
Mutual Information
坂本 嵩
慶應義塾大学環境情報学部
学部・大学院修士四年一貫教育プログラム
2020.06.09. ANTS勉強会
超ジェネリックな関係性
エントロピー
結合エントロピー
相互情報量の計算
1. 相互情報量とは
とりあえず包含的な関係性
データ数の影響
ノイズとサンプル数の関係
2. 相互情報量の特徴
時間方向?トライアル方向?
振幅値に対して
周波数情報や位相情報に対して
3. 相互情報量の適用
permutation test
4. 相互情報量の統計
とは特徴適用統計
確率とエントロピー
エントロピー=事象の不確実性
高エントロピー:不確実
低エントロピー:確実
𝐻 𝑋 = − ෍
𝑖=1
𝑛
𝑝 𝑥𝑖 log2 𝑝(𝑥𝑖)
計算するときは log(0) = −∞ に注意
微小値を足して回避する
相互情報量とは − エントロピー
とは
振幅、パワーなどの値をまとめた任意のビン
確率
エントロピーは時間に依存しない
時間配置は影響なし
・時間窓内の値をヒストグラムに
集めるだけなので
相互情報量とは − エントロピー
とは
エントロピーはビン数に依存する
ビンが増える→エントロピー↑
・ビンは多すぎても少なすぎてもダメ
・条件/被験者/電極間のビン数は揃える
Freedman-Diaconis rule
・最適なビン数を決める式
・他にもScott’s ruleやSturger’s rule
𝑛𝑏𝑖𝑛𝑠 =
max 𝑥 − min(𝑥)
2𝑄 𝑥 𝑛−1/3
相互情報量とは − エントロピー
とは
エントロピーだけでも指標になる
不確実性の指標
・システムの制約の多さ
・時間&トライアル方向にデータを
集めて計算
・右図下:400ms窓を100msずらし
相互情報量とは − エントロピー
とは
結合エントロピー=同時確率のエントロピー
𝐻 𝑋, 𝑌 = − ෍
𝑗=1
𝑚
෍
𝑖=1
𝑛
𝑝 𝑥𝑖, 𝑦𝑗 log2 𝑝(𝑥𝑖, 𝑦𝑗)
相互情報量とは − 結合エントロピー
とは
相互情報量
2変数の重複した情報
・正 / 負 / 線形 / 非線形 問わない関係性
𝑀𝐼 𝑋, 𝑌 = 𝐻 𝑋 + 𝐻 𝑌 − 𝐻(𝑋, 𝑌)
相互情報量とは − 相互情報量
とは
データ数の影響
データ数が減る → H, MI ↑
・ビン数ではなく、サンプル数
対策①:ビン数を変える
対策②:下式を使う
対策③:ノイズが一様なら無視
Δ𝐻 =
𝑏𝑖𝑛𝑠 − 1
2𝑁𝑙𝑛2
Δ𝑀𝐼 =
𝑏𝑖𝑛𝑠 − 1 2
2𝑁𝑙𝑛2
相互情報量の特徴
特徴
ノイズの影響
ノイズの影響は結構ある
・サンプリングレートは影響なし
・ノイズも一緒にプロットするため
(平均で消えない)
・フィルタ等して綺麗なデータを使う
相互情報量の特徴
特徴
時間方向 vs トライアル方向
時間方向
・tempo precision が高い
・位相ロックの活動を捉えやすい
トライアル方向
・tempo precision が低い
・非位相ロックの活動も捉えやすい
時間&トライアル方向
・データの増加→ロバスト性向上
相互情報量の適用
適用
適用する際の注意点
ビン数は時間軸で変えないこと
右図:Fz-O1の相互情報量
・400ms窓を100msでスライド
・A:時間窓ごとにビン数を変える
・C:時間窓ごとにビン数を変えない
・B:ビン数と相互情報量の相関
相互情報量の適用
適用
パワー・位相データへの適用
パワー・位相にも適用できる
・corr:正負あり
・MI:正負なし(絶対値的な)
Cross-Freqencyにも適用できる
相互情報量の適用
適用
Lagged Mutual Information
方向性を持つ相互情報量
・時間窓を片方だけズラす
・MIが最大になるのは何秒ズラし?
・一周期分だけズラせばおk
相互情報量の適用
適用
Permutation Test
帰無仮説:2変数間に関係無し
→時間をズラしても値は変わらない
ランダムに時間をズラして分布を作成、
観測値をZ化してp値を計算
相互情報量の統計
統計

More Related Content

What's hot

関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
Katsuhiro Morishita
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
matsuolab
 
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
Deep Learning JP
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
Kentaro Minami
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
Iclr2016 vaeまとめ
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
Deep Learning JP
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)ryotat
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
Nagi Teramo
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
sleepy_yoshi
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
Tomonari Masada
 
Link prediction
Link predictionLink prediction
Link predictionybenjo
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
 

What's hot (20)

関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
Iclr2016 vaeまとめ
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
Link prediction
Link predictionLink prediction
Link prediction
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 

脳波解析のための相互情報量 Analyzing Neural Time Series Data 29章