Submit Search
Upload
脳波解析での空間フィルタ(ラプラシアン)Analyzing Neural Times Series Data 22章
•
0 likes
•
2,191 views
S
Shu Sakamoto
Follow
脳波解析のノイズ除去として使われるラプラシアンフィルタについて解説しました。Analyzing Neural Time Series Dataの輪読会でのスライドです。
Read less
Read more
Science
Report
Share
Report
Share
1 of 17
Download now
Download to read offline
Recommended
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
Kohta Ishikawa
機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
イラストで学ぶ人工知能概論 9
イラストで学ぶ人工知能概論 9
Tadahiro Taniguchi
友人関係と感染症伝搬をネットワークで理解する
友人関係と感染症伝搬をネットワークで理解する
tm1966
論文のいろは
論文のいろは
Shu Sakamoto
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
Recommended
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
Kohta Ishikawa
機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
イラストで学ぶ人工知能概論 9
イラストで学ぶ人工知能概論 9
Tadahiro Taniguchi
友人関係と感染症伝搬をネットワークで理解する
友人関係と感染症伝搬をネットワークで理解する
tm1966
論文のいろは
論文のいろは
Shu Sakamoto
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
最適輸送入門
最適輸送入門
joisino
1 3.分散分析 anova
1 3.分散分析 anova
logics-of-blue
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
Ryosuke Tachibana
人工知能概論 2
人工知能概論 2
Tadahiro Taniguchi
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
Deep Learning JP
CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料
Masatoshi Yoshida
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
人工知能概論 3
人工知能概論 3
Tadahiro Taniguchi
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
cvpaper. challenge
ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現
Takashi Yamane
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
Kazuki Adachi
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
Katsuya Ito
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
More Related Content
What's hot
最適輸送入門
最適輸送入門
joisino
1 3.分散分析 anova
1 3.分散分析 anova
logics-of-blue
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
Ryosuke Tachibana
人工知能概論 2
人工知能概論 2
Tadahiro Taniguchi
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
Deep Learning JP
CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料
Masatoshi Yoshida
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
人工知能概論 3
人工知能概論 3
Tadahiro Taniguchi
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
cvpaper. challenge
ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現
Takashi Yamane
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
Kazuki Adachi
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
Katsuya Ito
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
What's hot
(20)
最適輸送入門
最適輸送入門
1 3.分散分析 anova
1 3.分散分析 anova
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
人工知能概論 2
人工知能概論 2
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
【DL輪読会】Which Shortcut Cues Will DNNs Choose? A Study from the Parameter-Space...
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
人工知能概論 3
人工知能概論 3
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
脳波解析での空間フィルタ(ラプラシアン)Analyzing Neural Times Series Data 22章
1.
ANTS Chap. 22 Surface
Laplacian 坂本 嵩 慶應義塾大学環境情報学部 学部・大学院修士四年一貫教育プログラム 2020.05.20. ANTS輪読会
2.
Cohen (2014), “Analyzing
Neural Time Series Data” 本スライドはANTS本の22章を 参考にしています。 脳波解析を簡潔にbut網羅的に 解説する良書です。 原著あたった方が早いかも。 付録ありで、かなり進めやすいです。 ・YouTubeのビデオレクチャー ・無料のサンプルコード ・有料のUdemyバージョン その前に
3.
ラプラシアンフィルタ 目次 目的・メリット・デメリット・注意 点 1. ラプラシアンフィルタとは 空間局所度があがり、 topographic mapの可視化が便利に 2.
嬉しいこと①:空間局所度 Volume Conductionが減ると コネクティビティが捗る 3. 嬉しいこと②:コネクティビティ 要は重み付け 4. 計算方法 #とは空間局所度結合性計算方法
4.
空間におけるハイパスフィルタ 周波数フィルタ 特定の周波数情報を目立たせる 空間フィルタ 特定の空間情報を目立たせる 頭皮全体に渡る活動を減衰させる ラプラシアンフィルタとは #とは
5.
メリット・デメリット メリット ・電極ベースの空間局所度↑ ・Volume-conduction ノイズ↓ ・レファレンス電極に依らない ・パラメータ /
仮定が少ない (↔活動源推定) ラプラシアンフィルタとは デメリット ・頭蓋全体に渡る活動↓ e.g.) P3b ・脳回表面の活動のみ取れる ・深い or 振幅が超同期している 活動源は取れない #とは
6.
注意点 ・電極が多くないとダメ(最低64ch) 100以上が望ましい 空間フィルタなんだからサンプリング点は多くないと、ね ・時間データにしかかけちゃダメ 時間周波数解析の後にかけちゃダメ(α帯だけとかは🙅) ERPは時間データのままなのでおk ・一部の条件 / 被験者を抜き出すのはダメ ラプラシアンフィルタとは #とは
7.
空間局所度の上昇(右:シミュ、下:実データ) 右A: 低周波なシード@Pz 右B: 高周波なシード@C3,
C4 右C: A + B (観測値) 右D: C + ラプラシアンフィルタ 高周波成分が取り出せる! 嬉しいこと① 空間局所度
8.
空間局所度の上昇、その解釈 ①◯生◯ラプラシアン ・600msの左前中頭 →元々見えてた信号 ②✕生◯ラプラシアン ・200msの右後頭 ・300-600msの右前中頭 →隠れてた信号 ③◯生✕ラプラシアン →容積伝導ノイズ (or 全体的な活動) 嬉しいこと① 空間局所度
9.
おまけ:>100chの場合 超高周波成分が除けたりする 嬉しいこと① 空間局所度
10.
コネクティビティ解析におけるノイズ削減 嬉しいこと② 分散の80%は距離、わお ほら、すごいでしょ! 結合性
11.
ナイーブな近似 近傍電極の平均を引き算する→全体的な活動はなんとなく消える でも容積伝導は距離によって決まる →Perrin et al.
の方法 計算方法 計算方法
12.
大まかな流れ(Perrin et al.の方法) ①重み行列G・Hを計算 ②G行列をデータに適用 ③H行列をかけてラプラシアンを計算 計算方法 計算方法
13.
G行列・H行列:重み行列 計算方法 計算方法
14.
G行列・H行列:重み行列 i, j: 電極のインデックス cosdistij:
電極iと電極jの位置ベクトルのコサイン類似度≒内積≒距離 m: 定数。4が推奨。小さいと高周波数情報のみを通すようになる Pn(x): ルジャンドル多項式(ググって) n: ルジャンドル多項式の次数。7が推奨。 計算方法 計算方法
15.
G行列・H行列:ルジャンドル多項式の次数 増やせば空間周波数↑ 高すぎると個別性↑共通性↓ =被験者間平均・比較が困難に 著者は7を推奨 64chだと10くらいまで情報が増える (空間サンプリング周波数=電極数 より空間周波数が高くなる限度) 100chまでだと13とか15まで 計算方法 計算方法
16.
重み行列をデータにかける→ラプラシアン λ:Gの対角成分に足す平滑化パラメーター 10-5 ~10-6 推奨。大きいと平滑に、小さいと局所的に。 (中身何も理解できてないです。。。) 計算方法 計算方法
17.
空間のハイパスフィルタ→ノイズ除去&可視化 頭皮全体に渡る活動を除去 局所的な活動が見えやすくなる! 容積伝導のノイズも減る! でもP3bとかは消えちゃう… まとめ まとめ
Download now