SlideShare a Scribd company logo
1 of 17
Download to read offline
ANTS Chap. 22
Surface Laplacian
坂本 嵩
慶應義塾大学環境情報学部
学部・大学院修士四年一貫教育プログラム
2020.05.20. ANTS輪読会
Cohen (2014), “Analyzing Neural Time Series Data”
本スライドはANTS本の22章を
参考にしています。
脳波解析を簡潔にbut網羅的に
解説する良書です。
原著あたった方が早いかも。
付録ありで、かなり進めやすいです。
・YouTubeのビデオレクチャー
・無料のサンプルコード
・有料のUdemyバージョン
その前に
ラプラシアンフィルタ
目次
目的・メリット・デメリット・注意
点
1. ラプラシアンフィルタとは
空間局所度があがり、
topographic mapの可視化が便利に
2. 嬉しいこと①:空間局所度
Volume Conductionが減ると
コネクティビティが捗る
3. 嬉しいこと②:コネクティビティ
要は重み付け
4. 計算方法
#とは空間局所度結合性計算方法
空間におけるハイパスフィルタ
周波数フィルタ
特定の周波数情報を目立たせる
空間フィルタ
特定の空間情報を目立たせる
頭皮全体に渡る活動を減衰させる
ラプラシアンフィルタとは
#とは
メリット・デメリット
メリット
・電極ベースの空間局所度↑
・Volume-conduction ノイズ↓
・レファレンス電極に依らない
・パラメータ / 仮定が少ない
(↔活動源推定)
ラプラシアンフィルタとは
デメリット
・頭蓋全体に渡る活動↓ e.g.) P3b
・脳回表面の活動のみ取れる
・深い or 振幅が超同期している
活動源は取れない
#とは
注意点
・電極が多くないとダメ(最低64ch)
100以上が望ましい
空間フィルタなんだからサンプリング点は多くないと、ね
・時間データにしかかけちゃダメ
時間周波数解析の後にかけちゃダメ(α帯だけとかは🙅)
ERPは時間データのままなのでおk
・一部の条件 / 被験者を抜き出すのはダメ
ラプラシアンフィルタとは
#とは
空間局所度の上昇(右:シミュ、下:実データ)
右A: 低周波なシード@Pz
右B: 高周波なシード@C3, C4
右C: A + B (観測値)
右D: C + ラプラシアンフィルタ
高周波成分が取り出せる!
嬉しいこと①
空間局所度
空間局所度の上昇、その解釈
①◯生◯ラプラシアン
・600msの左前中頭
→元々見えてた信号
②✕生◯ラプラシアン
・200msの右後頭
・300-600msの右前中頭
→隠れてた信号
③◯生✕ラプラシアン
→容積伝導ノイズ (or 全体的な活動)
嬉しいこと①
空間局所度
おまけ:>100chの場合
超高周波成分が除けたりする
嬉しいこと①
空間局所度
コネクティビティ解析におけるノイズ削減
嬉しいこと②
分散の80%は距離、わお ほら、すごいでしょ!
結合性
ナイーブな近似
近傍電極の平均を引き算する→全体的な活動はなんとなく消える
でも容積伝導は距離によって決まる
→Perrin et al. の方法
計算方法
計算方法
大まかな流れ(Perrin et al.の方法)
①重み行列G・Hを計算
②G行列をデータに適用
③H行列をかけてラプラシアンを計算
計算方法
計算方法
G行列・H行列:重み行列
計算方法
計算方法
G行列・H行列:重み行列
i, j: 電極のインデックス
cosdistij: 電極iと電極jの位置ベクトルのコサイン類似度≒内積≒距離
m: 定数。4が推奨。小さいと高周波数情報のみを通すようになる
Pn(x): ルジャンドル多項式(ググって)
n: ルジャンドル多項式の次数。7が推奨。
計算方法
計算方法
G行列・H行列:ルジャンドル多項式の次数
増やせば空間周波数↑
高すぎると個別性↑共通性↓
=被験者間平均・比較が困難に
著者は7を推奨
64chだと10くらいまで情報が増える
(空間サンプリング周波数=電極数
より空間周波数が高くなる限度)
100chまでだと13とか15まで
計算方法
計算方法
重み行列をデータにかける→ラプラシアン
λ:Gの対角成分に足す平滑化パラメーター
10-5 ~10-6 推奨。大きいと平滑に、小さいと局所的に。
(中身何も理解できてないです。。。)
計算方法
計算方法
空間のハイパスフィルタ→ノイズ除去&可視化
頭皮全体に渡る活動を除去
局所的な活動が見えやすくなる!
容積伝導のノイズも減る!
でもP3bとかは消えちゃう…
まとめ
まとめ

More Related Content

What's hot

最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
1 3.分散分析 anova
1 3.分散分析 anova1 3.分散分析 anova
1 3.分散分析 anovalogics-of-blue
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心にウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心にRyosuke Tachibana
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いwada, kazumi
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
 
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...Deep Learning JP
 
CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料Masatoshi Yoshida
 
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...Deep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 
ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現Takashi Yamane
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...Kazuki Adachi
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRMLKatsuya Ito
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 

What's hot (20)

最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
1 3.分散分析 anova
1 3.分散分析 anova1 3.分散分析 anova
1 3.分散分析 anova
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心にウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
 
人工知能概論 2
人工知能概論 2人工知能概論 2
人工知能概論 2
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
 
CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料
 
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
人工知能概論 3
人工知能概論 3人工知能概論 3
人工知能概論 3
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 
ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 

脳波解析での空間フィルタ(ラプラシアン)Analyzing Neural Times Series Data 22章