SlideShare a Scribd company logo
1 of 21
順推論と逆推論の問題
生理学研究所 脳機能計測・支援センター
准教授 近添淳一
Forward and reverse inference
(順推論と逆推論)
Forward
inference
(順推論)
Reverse
inference
(逆推論)
課題によって生じ
た精神活動
P(A|M)
A: Brain activity (脳活動)
M: Mental state (精神活動)
P(M|A)
精神活動
嫌悪
不適切なReverse inferenceの例
結論:
被験者はgo/no-go課題が難しすぎるために、実験に対し
て嫌悪感を抱いた、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
(Wright et al., 2004)
不適切なReverse inferenceの例
結論:
被験者はgo/no-go課題を遂行するために、課題のルール
を短期記憶を使って保持する必要があった、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
短期記憶
(Engström et al., 2015)
不適切なReverse inferenceの例
結論:
困難な課題で成功することはそれ自体で報酬となるため、
被験者は「甘い」気分になっている、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
味覚
(甘味)
(Chikazoe et al., in preparation)
不適切なReverse inferenceの例
結論:
被験者は「酸っぱい」気分になっている。なぜなら・・・
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
味覚
(酸味)
(Chikazoe et al., in preparation)
reverse inferenceの問題は何か?
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
事後確率
(脳活動を見た後で
推定された精神活動)
事前確率
(脳活動をみる前に
推定された精神活動)
観察
不適切なreverse inferenceの場合
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
観察 自分のストーリーを
サポートする論文を
恣意的に選択
reverse inferenceの問題は何か?
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
事前確率
(脳活動をみる前に
推定された精神活動)
著者の主観的信念に
従い、恣意的に設定
二重の恣意性によって推論が歪む
1.客観的なデータ観察の代わりに、恣意的な
論文選択
2.事前確率に著者の信念を直接反映させる
解決策
1.Neurosynthを用いる。
実際のdataに基づいた客観的なreverse inferenceが可能。
2.Taskを条件として加える。
Inferenceの範囲を限定する。
(視覚を使う実験をしている場合には、被験者が聴覚経験
をしている可能性を考える必要がない。)
Neurosynth (http://neurosynth.org/)
Meta-analysis
P(pain|activation)
Automated coordinate
extraction
Related studies
Term-based
search
‘Pain’
Yarkoni et al., 2011, Nature Methods
P(M|A) =
P(A)
P(A|M) x P(M)
過去のfMRI研究を網羅的に調べることにより計算
0.5に設定 (無情報分布)
Term-based
search
‘Pain’
Neurosynthの使い方
Coordinateを用いる方法
単語と領域の
関連の強さ
Reverse inferenceの結果
全脳の脳活動のパターンを用いる方法
全脳の脳活動のパターンを用いる方法
全脳の脳活動のパターンを用いる方法
Neurosynthを使うことのメリット
• 恣意性を排除できる。
• 複数の仮説(解釈)の間で、どれがどの程度確か
らしいかを定量的に評価できる。
Neurosynthを使うことのデメリット
• 論文を精読して細かく振り分けたわけではないた
め(コンピュータが論文の中の単語の出現頻度を
機械的にカウント)、ノイズも多く含まれる。
• 事前確率が非常に重要であるにもかかわらず、こ
の部分を正確に評価できていない。
P(M|A) =
P(A)
P(A|M) x P(M)
過去のfMRI研究を網羅的に調べることにより計算
0.5に設定 (無情報分布)
課題を条件として加える方法
例:視覚実験を行っている場合は、視覚刺激が与え
られているということを事前に実験者は知っている。
この場合、聴覚刺激が与えられている可能性を考え
なくてよい。
(MVPAを使ったDecodingはこれを利用している)
P(M|A ∩Task) =
P(A|Task)
P(A|M ∩ Task) x P(M |Task)
参考文献
• Poldrack, Inferring Mental States from Neuroimaging Data: From
Reverse Inference to Large-Scale Decoding. Neuron. 2011 Dec
8;72(5):692-7. doi: 10.1016/j.neuron.2011.11.001.
• Yarkoni et al., Large-scale automated synthesis of human functional
neuroimaging data. Nature Methods 8, 665–670 (2011)
doi:10.1038/nmeth.1635
• Hutzler, Reverse inference is not a fallacy per se: cognitive processes
can be inferred from functional imaging data. Neuroimage. 2014 Jan
1;84:1061-9. doi: 10.1016/j.neuroimage.2012.12.075.

More Related Content

What's hot

機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルト機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルトBrainPad Inc.
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向Yusuke Uchida
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...Deep Learning JP
 
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical ReportDeep Learning JP
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked AutoencodersDeep Learning JP
 
[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphsDeep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based ModelDeep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
学位論文の書き方メモ (Tips for writing thesis)
学位論文の書き方メモ (Tips for writing thesis)学位論文の書き方メモ (Tips for writing thesis)
学位論文の書き方メモ (Tips for writing thesis)Nobuyuki Umetani
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsulesharmonylab
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some PreliminaryDeep Learning JP
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展Deep Learning JP
 
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925小川 雄太郎
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理Koki Nakamura
 

What's hot (20)

機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルト機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルト
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 
[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]Learning convolutional neural networks for graphs
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]モデルベース強化学習とEnergy Based Model
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
学位論文の書き方メモ (Tips for writing thesis)
学位論文の書き方メモ (Tips for writing thesis)学位論文の書き方メモ (Tips for writing thesis)
学位論文の書き方メモ (Tips for writing thesis)
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsules
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
 
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
 

順推論と逆推論