Submit Search
Upload
信号検出理論 (『実践ベイズモデリング』15章)
•
Download as PPTX, PDF
•
4 likes
•
4,714 views
Takashi Yamane
Follow
内輪の統計モデリング勉強会での発表資料です。
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 18
Download now
Recommended
ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現
Takashi Yamane
Deep Learning Lab 異常検知入門
Deep Learning Lab 異常検知入門
Shohei Hido
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする
Masaru Tokuoka
相互相関関数の最大化と時間差推定
相互相関関数の最大化と時間差推定
KoueiYamaoka
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾
Yoshitake Takebayashi
Recommended
ベイズモデリングによる第2種信号検出モデルの表現
ベイズモデリングによる第2種信号検出モデルの表現
Takashi Yamane
Deep Learning Lab 異常検知入門
Deep Learning Lab 異常検知入門
Shohei Hido
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
混合モデルを使って反復測定分散分析をする
混合モデルを使って反復測定分散分析をする
Masaru Tokuoka
相互相関関数の最大化と時間差推定
相互相関関数の最大化と時間差推定
KoueiYamaoka
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾
Yoshitake Takebayashi
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
Mplusの使い方 初級編
Mplusの使い方 初級編
Hiroshi Shimizu
03 「重回帰分析」の入門
03 「重回帰分析」の入門
Shuhei Ichikawa
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
Seiichi Uchida
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
logics-of-blue
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
正準相関分析
正準相関分析
Akisato Kimura
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
データ入力が終わってから分析前にすること
データ入力が終わってから分析前にすること
Masaru Tokuoka
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
SEMを用いた縦断データの解析 潜在曲線モデル
SEMを用いた縦断データの解析 潜在曲線モデル
Masaru Tokuoka
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
Deep Learning JP
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
Yu Tamura
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
Yuki Yamada
20210711 deepI2P
20210711 deepI2P
Takuya Minagawa
多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料
Tomoshige Nakamura
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
Takashi Yamane
Osaka.stan#4 chap8
Osaka.stan#4 chap8
Takashi Yamane
More Related Content
What's hot
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
Mplusの使い方 初級編
Mplusの使い方 初級編
Hiroshi Shimizu
03 「重回帰分析」の入門
03 「重回帰分析」の入門
Shuhei Ichikawa
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
Seiichi Uchida
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
logics-of-blue
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
正準相関分析
正準相関分析
Akisato Kimura
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
Shushi Namba
データ入力が終わってから分析前にすること
データ入力が終わってから分析前にすること
Masaru Tokuoka
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
SEMを用いた縦断データの解析 潜在曲線モデル
SEMを用いた縦断データの解析 潜在曲線モデル
Masaru Tokuoka
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
Deep Learning JP
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
Yu Tamura
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
Yuki Yamada
20210711 deepI2P
20210711 deepI2P
Takuya Minagawa
多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料
Tomoshige Nakamura
What's hot
(20)
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Mplusの使い方 初級編
Mplusの使い方 初級編
03 「重回帰分析」の入門
03 「重回帰分析」の入門
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
正準相関分析
正準相関分析
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
データ入力が終わってから分析前にすること
データ入力が終わってから分析前にすること
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
SEMを用いた縦断データの解析 潜在曲線モデル
SEMを用いた縦断データの解析 潜在曲線モデル
【DL輪読会】A Path Towards Autonomous Machine Intelligence
【DL輪読会】A Path Towards Autonomous Machine Intelligence
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
20210711 deepI2P
20210711 deepI2P
多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料
More from Takashi Yamane
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
Takashi Yamane
Osaka.stan#4 chap8
Osaka.stan#4 chap8
Takashi Yamane
要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチ
Takashi Yamane
PypeRで実験と分析を一本化する
PypeRで実験と分析を一本化する
Takashi Yamane
Rの導入とRStudio事始め(改訂版)
Rの導入とRStudio事始め(改訂版)
Takashi Yamane
ガンマ分布 @魁!!広島ベイズ塾
ガンマ分布 @魁!!広島ベイズ塾
Takashi Yamane
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
Takashi Yamane
ANOVA君とanovatan
ANOVA君とanovatan
Takashi Yamane
MCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナー
Takashi Yamane
第一回広島ベイズ塾・最小二乗法
第一回広島ベイズ塾・最小二乗法
Takashi Yamane
Anova君を使った分散分析
Anova君を使った分散分析
Takashi Yamane
Rstudio事始め
Rstudio事始め
Takashi Yamane
Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理
Takashi Yamane
More from Takashi Yamane
(13)
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
Osaka.stan#4 chap8
Osaka.stan#4 chap8
要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチ
PypeRで実験と分析を一本化する
PypeRで実験と分析を一本化する
Rの導入とRStudio事始め(改訂版)
Rの導入とRStudio事始め(改訂版)
ガンマ分布 @魁!!広島ベイズ塾
ガンマ分布 @魁!!広島ベイズ塾
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
ANOVA君とanovatan
ANOVA君とanovatan
MCMCによる回帰分析@ベイズセミナー
MCMCによる回帰分析@ベイズセミナー
第一回広島ベイズ塾・最小二乗法
第一回広島ベイズ塾・最小二乗法
Anova君を使った分散分析
Anova君を使った分散分析
Rstudio事始め
Rstudio事始め
Mendeleyで簡単! 論文管理
Mendeleyで簡単! 論文管理
信号検出理論 (『実践ベイズモデリング』15章)
1.
信号検出理論 2017.10.18 統計モデリング勉強会 広島大学グローバルキャリアデザインセンター 特別研究員 広島大学大学院
教育学研究科 学習心理学研究室 山根 嵩史 『実践ベイズモデリングー解析技法と認知モデルー』15章
2.
信号検出理論とは ✔︎ ︎信号検出理論の良いところ 信号検出の感度と参加者の判断基準を独立した 指標として得ることができる ✔︎ ︎心理学における信号検出理論の利用 ・記憶の再認課題 ・単語/非単語などの識別課題 信号検出理論
(TSD: Theory of Signal Detection) は,「ランダ ムに変動するノイズの中に検出すべき信号が存在する」ような 状況を想定した理論 心理学においては,ノイズと信号を無視すべき刺激と知覚す べき刺激とみなし,それらに対する実験参加者の弁別力を算出 するために用いられる
3.
再認課題の一般的な手続き(不要かもですが…) 学習フェーズ 再認フェーズ リンゴ みかん
ブドウ 梨 もも いちじく 参加者は,所定の刺激 (学習 項目) のリストを学習 妨害課題 など リンゴ みかん ブドウ 梨 もも いちじく マンゴー すもも キウイ パイン 檸檬 いちご + 学習項目リストと同数の刺激 (フィラー項目) リストを呈示 参加者は,刺激が“学習したも のかそうでないか”を判断 (old/new判断)
4.
再認課題の一般的な手続き(不要かもですが…) 参加者の反応 old new old項目 ヒット
ミス new項目 誤警報 (FA) 正棄却 (CR) 参加者の判断に基づいて,反応を4つに分類 記憶についての様々な指標を取れる ヒット率−FA率で修正再認率を出したり,参加者の 判断のバイアス (oldと判断しがちかnewと判断しが ちか) を評価したり 刺激の種類や課題状況の違いは色々あるけどだいたいこんな感じ。
5.
ノイズ分布と信号+ノイズ分布 N分布 SN分布 N分布:ノイズが呈示されたときの心理量の分布 SN分布:信号+ノイズが呈示されたときの心理量の分布 信号が加わる分,信号強度が高くなるため,常に N分布より右側に位置する 心理量:信号強度に対応した心理量 心理量 確 率 密 度 確率密度:各分布のもとでその心理量が生じる確率 (尤度) ※信号検出理論のもとではノイズおよび信号の強度は一定なので,ノイズや信号のばらつきではなく心理量 に変換される際の誤差による分布である点に注意
6.
再認課題の場合 N分布 SN分布 N分布:フィラー項目に対する覚えた感の分布 SN分布:学習項目に対する覚えた感の分布 心理量:“学習フェーズで見た (覚えた)”という感覚 心理量 確 率 密 度 確率密度:フィラー項目,学習項目の分布のもとで,その覚え た感が生じる確率 学習してない項目でも
“覚え た感”が高い場合もある 学習した項目でも“覚えた 感“が低い場合もある
7.
信号検出理論の仮定 ✔︎ ︎N分布とSN分布は正規分布である (正規性の仮定) ✔︎
N分布とSN分布の分散は等しい (等分散の仮定) 信号検出理論では, という仮定をおく (たぶんN分布・SN分布の推定や,反応バイアスcの計算のために必要な仮定) 信号検出理論のもとではノイズおよび信号の強度は一定と考え るが,刺激に対して参加者が感じる心理量には誤差があり,全 体としてはその誤差は正規分布をとるとみなす ※刺激の性質の違いによるバラツキではない点に注意 N分布とSN分布が等分散でない場合の指標 (A’,Δm など) も提案されている (『信号検出理論の指標をめぐって』などを参照)
8.
信号検出の感度 N分布とSN分布の関係は,信号の 強度 (と感覚系の特性) によって決まる M0
M1 M0 M1 M0 M1 信号強度に対応する心理量が大き いほど,N分布とSN分布は離れる N分布の平均(M0)とSN分布の平均 (M1)の差を,N分布の標準偏差sで 割った値 は信号検出力と定義される (信号検出の感度の指標) 心理量が小さいほど,N分布とSN 分布が重なり,信号検出は困難に
9.
参加者の判断基準 参加者は,心理量を観察し,その 心理量がどちらの分布から得られ たものかを判断する (e.g., 再認課題におけるold/new判断) 参加者は,心理量がある一定の値 を超えたときに信号アリ (“Yes”)と, その値未満のときに信号ナシ (“No”)と判断すると考える M0 M1 k k 正棄却
誤警報 ミス ヒット 判断基準 (k) とN分布,SN分布の 関係は左図のようになり,得られ たヒット率と誤警報率をもとに, N分布とSN分布を推測することが 可能になる Yes反応 No反応 信号+ノイズ ヒット ミス ノイズ 誤警報 (FA) 正棄却 (CR)
10.
参加者の反応バイアス M0 M1kd/2 M0
M1k d/2 c > 0 c < 0 d d 判断基準kとd/2の差 は反応バイアスと定義される d/2はN分布とSN分布の境目になるので,kとd/2が一致している 状態 (c = 0) は反応バイアスがない状態 c>0だとNo反応をしがちな参加者 (正棄却,ミスが増加) c<0だとYes反応をしがちな参加者 (ヒット,誤警報が増加)
11.
15.1.3 モデル d:信号検出力 c:反応バイアス θ(h):ヒット率 θ(f):誤警報率 h:ヒットの度数 f:誤警報の度数 nS:信号アリ試行の数 (ヒット+ミス) nN:信号ナシ試行の数(誤警報+正棄却)
12.
15.1.4 階層モデルによって個人差を表現したモデル dとcの個人差を表すため,事前分布として正規分布を仮定し, 平均μd,μc,標準偏差σd,σcを設定
13.
15.2 分析例 1)学習段階:実験参加者はまず,合計60個の単語を呈示され,できるだ け多くの単語を記憶するよう教示されます。単語は,15単語からなる4 つのリストに分けて順番に呈示され,各リストの学習時間は30秒とし ました。 2) 再認課題:学習の直後に,実験参加者は48単語が12×4の配列で記載さ れた用紙を渡され,学習段階で見たと思う単語すべてに丸を付けるよ う教示されます。なお,再認課題において呈示された単語の半分は学 習段階で呈示した中に含まれる単語
(Old),残り半分は新規な単語 (New) です。この比率は実験参加者には知らされていません。 『実践ベイズモデリング−解析技法と認知モデル』 pp.135-136 より ・一般的なペーパー&ペンシルの再認課題 ・60項目を記銘 ・参加者7名
14.
15.2.1 全体データの分析 Yes No old
109 59 new 15 153 dは平均1.71[1.38,2.03] cは平均0.47[0.31,0.64] ☞参加者は“No”と答 えがち
15.
15.2.2 階層モデルの適用 ヒット率 誤警報率 参加者5のヒット率が低い 参加者6は誤警報率が高い
などなど ☞ 信号検出力dや反応バイアスcも加味して解釈
16.
15.2.2 階層モデルの適用 信号検出力d 反応バイアスc 参加者5はヒット率が低く,信号検出力dも低い さらに反応バイアスcは最も高い ☞
old項目とnewの区別がつきにくく,“No”と答えがちな参加者 参加者6はヒット率が最も高く,反応バイアスcが最も0に近い ☞ 再認成績が良く,判断バイアスも小さい参加者
17.
まとめと感想 ✔︎ ︎信号検出理論は,参加者にYes/Noの二値の反応を 求める課題において,感度や反応のバイアスを評 価するのに便利 ✔︎ 個人差を加味した階層モデルでは,参加者ごとの 比較も可能 ✔︎
︎ベイズと信号検出理論は相性が良さそう (そもそもが参加者の反応からN分布・SN分布を推測しましょうというモ チベーションなので) ✔︎ ︎ベイズだったらN分布とSN分布にそれぞれ別の分 布を仮定することも (たぶん) できる けどどんなデータに使えるかは分からん ✔︎ ︎N分布とSN分布の形が異なるときの,正確なバイ アスと検出力のモデリングとか夢が広がリング
18.
参考文献 『実践ベイズモデリング−解析技法と認知モデル』 豊田 秀樹 (編著)
2017 朝倉書店 『心理物理学−方法・理論・応用 (上)』 Gescheider G. A. (著) 宮岡 徹 (監訳) 2002 北大路書房 石田 翼 信号検出理論の指標をめぐって (http://www5e.biglobe.ne.jp/~tbs-i/psy/tsd/tsd.pdf) 石田 翼 信号検出理論について−数式と実践 (http://www5e.biglobe.ne.jp/~tbs-i/psy/tsd/tsdrev.pdf) 久保 沙織 信号検出理論・トピックモデル 教育心 理学会第58回総会資料 (http://www.waseda.jp/sem- toyoda-lab/conference/jaep58/symposium_bayesmodel.pdf) 鍋田 智広 信号検出理論 (http://cogpsy.educ.kyoto- u.ac.jp/personal/Kusumi/datasem07/nabeta.pdf)
Download now