SlideShare a Scribd company logo
1 of 108
ベイジアンネットワークについて
後援:ドワンゴ
平成27年6月29日
藤田恵梨香
1
自己紹介
2
法政大学 理工学部
知的情報処理研究室 4年
藤田恵梨香
先週、勉強会(?)で慶応大学に行ってきました。
今週末、院試うけます!!!
ベイジアンネットワークとは
 ベイジアンネットワークとは
原因や結果が互いに影響を及ぼす事象を
ネットワークで表した確率グラフ
 できること
確率的統計に基づいて原因→結果
結果→原因の関係を推定
3
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
4
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
5
確率の概要
x:事象
実験などにより観測されて起こる出来事
X:確率変数
事象と実数を対応付けた変数
P(x):
事象eが起こる確率
6
主観確率と客観確率の定義
主観確率とは
 人の主観的な信念の度合い
 例)試験に合格する確率が70%
客観確率とは
 客観的な実験結果により得られる確率
 例)コインを投げて表が出る確率
主観確率 客観確率
7
ベイズ確率
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
8
条件付き確率
条件付き確率 𝑃(𝐴 = 𝑎|𝐵 = 𝑏)
 事象B=bのもとで事象A=aとなる確率
𝑃 𝑎 𝑏 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑏)
Ex)01の信号を伝達するとき
0を送って正しく0が受け取られる確率
0を送信 1を送信
0を受信
1を受信
9
条件付き確率
条件付き確率 𝑃(𝐴 = 𝑎|𝐵 = 𝑏)
 事象B=bのもとで事象A=aとなる確率
𝑃 𝑎 𝑏 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑏)
Ex)01の信号を伝達するとき
0を送って正しく0が受け取られる確率
0を送信 1を送信
10
条件付き確率
条件付き確率 𝑃(𝐴 = 𝑎|𝐵 = 𝑏)
 事象B=bのもとで事象A=aとなる確率
𝑃 𝑎 𝑏 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑏)
Ex)01の信号を伝達するとき
0を送って正しく0が受け取られる確率
0を受信
1を受信
11
条件付き確率
条件付き確率 𝑃(𝐴 = 𝑎|𝐵 = 𝑏)
 事象B=bのもとで事象A=aとなる確率
𝑃 𝑎 𝑏 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑏)
Ex)01の信号を伝達するとき
0を送って正しく0が受け取られる確率
0を送信 1を送信
0を受信
1を受信
12
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
13
ベイズの定理
条件付き確率の定義 𝑃 𝑎 𝑏 =
𝑃(𝑎∩𝑏)
𝑃(𝑏)
𝑃 𝑎 𝑏 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑏)
・・・(1)
𝑃(𝑎 ∩ 𝑏) = 𝑃 𝑎 𝑏 𝑃(𝑏)・・・(2)
𝑃 𝑏 𝑎 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑎)
・・・(3)
𝑃(𝑎 ∩ 𝑏) = 𝑃 𝑏 𝑎 𝑃(𝑎)・・・(4)
14
ベイズの定理
条件付き確率の定義 𝑃 𝑎 𝑏 =
𝑃(𝑎∩𝑏)
𝑃(𝑏)
𝑃 𝑎 𝑏 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑏)
・・・(1)
𝑃(𝑎 ∩ 𝑏) = 𝑃 𝑎 𝑏 𝑃(𝑏)・・・(2)
𝑃 𝑏 𝑎 =
𝑃(𝑎 ∩ 𝑏)
𝑃(𝑎)
・・・(3)
𝑃(𝑎 ∩ 𝑏) = 𝑃 𝑏 𝑎 𝑃(𝑎)・・・(4)
15
ベイズの定理
(2),(4)より
𝑃 𝑏 𝑎 𝑃(𝑎)=𝑃 𝑎 𝑏 𝑃(𝑏)・・・(5)
𝑃 𝑏 𝑎 =
𝑃 𝑎 𝑏 𝑃(𝑏)
𝑃(𝑎)
𝑃 𝑎 ≠ 0・・・ 6
16
事前確率事後確率 尤度
ベイズの定理の拡張
𝑃(𝑎) = 𝐵∋𝑏 𝑖
𝑃 𝑎|𝑏𝑖 𝑃 𝑏𝑖 ・・・(7)
𝑃 𝑏 𝑎 =
𝑃 𝑎 𝑏 𝑃(𝑏)
𝐵∋𝑏 𝑖
𝑃 𝑎|𝑏 𝑖 𝑃(𝑏 𝑖)
・・・(8)
b:原因 a:結果
𝑃 𝑏 𝑎 =
𝑃 𝑎 𝑏 𝑃(𝑏)
𝐵∋𝑏 𝑖
𝑃 𝑎|𝑏 𝑖 𝑃(𝑏 𝑖)
事前確率事後確率 尤度
17
ベイズの定理
ベイズの定理により・・・
結果から原因の推定が可能
例)
慶応大学の学園祭でナンパしている人が
慶応大生であるかの推定
18
ベイズの定理
慶応大生である確率P(k)=0.5
ある質問に対し間違ったとき
慶応大生である確率は・・・
𝑃 𝑘 誤る =
𝑃 誤る 𝑘 𝑃(𝑘)
𝑃 誤る 𝑘 𝑃 𝑘 + 𝑃 誤る 𝑘 𝑃( 𝑘)
=
0.05 ∗ 0.5
0.05 ∗ 0.5 + 0.99 ∗ (1 − 0.5)
=
25
520
≅ 0.048
正しく
答える
誤る
慶応大生 0.95 0.05
他の大学生 0.01 0.99
19
ベイズ更新
 事後確率を更新する手法
𝑃(𝑎|𝑏)
20
ベイズ更新
慶応大生である確率P(k)=0.048
質問に対し間違ったとき
慶応大生である確率は・・・
𝑃 𝑘 誤る =
𝑃 誤る 𝑘 𝑃(𝑘)
𝑃 誤る 𝑘 𝑃 𝑘 + 𝑃 誤る 𝑘 𝑃( 𝑘)
=
0.1 ∗ 0.048
0.1 ∗ 0.048 + 0.995 ∗ (1 − 0.048)
=
480
95204
≅ 0.005
正しく
答えられる
誤る
慶応大生 0.9 0.1
他の大学
生
0.005 0.995
21
この手法がベイズ更新
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
22
最尤推定法
 最尤推定法
𝑃 𝐴 = 𝑎 𝐵 を推定する方法
サンプルに対し
当てはまりの良いモデルを推定する
P(a=a|B)
B
σ
μ
𝜃 = {𝜇, 𝜎}
23
最尤推定法
P(a=a|B) B
σ
μ
𝜃 = {𝜇, 𝜎}
分布の形が分かっているとき
一意に決まる
最尤推定法
N個のデータD{𝑥1, ・・・, 𝑥 𝑁}の発生確率
𝑃 𝐷 𝜃 = 𝑃 𝑥1 𝜃 ∙ 𝑃 𝑥2 𝜃 ∙ ⋯ ∙ 𝑃 𝑥 𝑁 𝜃 ・・・(9)
𝑃 𝐷 𝜃 :尤度関数
ある𝜃により決まるモデルによるデータの
発生確率を求める
P(a=a|B)
B
σ
μ
𝜃 = {𝜇, 𝜎}
25
尤度小
最尤推定法
N個のデータD{𝑥1, ・・・, 𝑥 𝑁}の発生確率
𝑃 𝐷 𝜃 = 𝑃 𝑥1 𝜃 ∙ 𝑃 𝑥2 𝜃 ∙ ⋯ ∙ 𝑃 𝑥 𝑁 𝜃 ・・・(9)
𝑃 𝐷 𝜃 :尤度関数
モデルによるデータの発生確率が最大
→尤もらしいモデル!!!
P(a=a|B)
B
𝜃 = {𝜇, 𝜎}
26
尤度大
ベイズ推定法
 ベイズ推定法
事後確率(分布)を推定するための手法
ベイズの定理やベイズ更新によりデータが
得られるたびに確率分布を更新する
例)
・慶応大学でナンパしている人が慶応大生で
あるかの推定
27
ベイズ推定法
慶応大生である確率P(k)=0.5
ある質問に対し間違ったとき
慶応大生である確率は・・・
𝑃 𝑘 誤る =
𝑃 誤る 𝑘 𝑃(𝑘)
𝑃 誤る 𝑘 𝑃 𝑘 + 𝑃 誤る 𝑘 𝑃( 𝑘)
正しく
答える
誤る
慶応大生 0.95 0.05
他の大学生 0.01 0.99
28
値
ベイズ推定法
慶応大生である確率P(k)=0.5
ある質問に対し間違ったとき
慶応大生である確率は・・・
𝑃 𝑘 誤る =
𝑃 誤る 𝐾 𝑃(𝐾)
𝑃 誤る 𝑘 𝑃 𝑘 + 𝑃 誤る 𝑘 𝑃( 𝑘)
正しく
答える
誤る
慶応大生 0.95 0.05
他の大学生 0.01 0.99
29
確率分布
ベイズ推定法
慶応大生である確率P(k)=0.5
ある質問に対し間違ったとき
慶応大生である確率は・・・
𝑃 𝐾 誤る =
𝑃 誤る 𝐾 𝑃(𝐾)
𝑃 誤る 𝑘 𝑃 𝑘 + 𝑃 誤る 𝑘 𝑃( 𝑘)
正しく
答える
誤る
慶応大生 0.95 0.05
他の大学生 0.01 0.99
0
0.5
1
0 0.5 1
P(K)
K
事前確率
0
0.5
1
0 0.5 1
P(X)
X:質問への回答
P(質問への回答)
0
0.5
1
0 0.5 1
P(質問への回答|K)
K
尤度
30
ベイズ推定法
慶応大生である確率P(k)=0.5
ある質問に対し間違ったとき
慶応大生である確率は・・・
𝑃 𝑘 誤る =
𝑃 誤る 𝑘 𝑃(𝑘)
𝑃 誤る 𝑘 𝑃 𝑘 + 𝑃 誤る 𝑘 𝑃( 𝑘)
正しく
答える
誤る
慶応大生 0.95 0.05
他の大学生 0.01 0.99
0
0.5
1
0 0.5 1
P(K|誤った)
K
事後確率
31
最尤推定法とベイズ推定法
最尤推定法とベイズ推定法の違い
最尤推定法 ベイズ推定法
推定するもの 尤度 事後確率(分布)
データ量 大量 少なくても推論可
モデルの更新 なし あり
32
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
33
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
34
ベイジアンネットワークとは
 ベイジアンネットワークとは
原因や結果が互いに影響を及ぼす事象を
ネットワークで表した確率グラフ
 できること
確率的統計に基づいて原因→結果
結果→原因の関係を推定
35
ベイジアンネットワークの構成要素
ノード:事象,確率変数
アーク:ノードを繋ぐ矢印
CPT(Conditional probability table)
:条件付き確率表
y1 y2
X=1
X=2
・・・
36
ベイジアンネットワークの性質
因果独立の仮定
アークによりつながっている直接の親ノード
以外は因果的に独立とする
代表から発表を
依頼される
ニコ生で
発表する
大澤が嫌い
になる
友達に
いじられる
炎上する
37
ベイジアンネットワークの性質
因果独立の仮定
アークによりつながっている直接の親ノード
以外は因果的に独立とする
代表の大澤から発表を
依頼される
ニコ生で
発表する
大澤が嫌い
になる
友達に
いじられる
炎上する
38
ベイジアンネットワークの性質
因果独立の仮定
アークによりつながっている直接の親ノード
以外は因果的に独立とする
同時確率を求める際の
試行の組み合わせを少なくできる
39
たとえば・・・
5個のノードが2値の確率変数の
同時確率を求めるための組み合わせ
25
= 32
依頼 発表 嫌い 炎上 いじられる P(依頼,発表,嫌い,炎上,いじられる)
0 0 0 0 0 0.12
0 0 0 0 1 0.06
0 0 0 1 0 0.2
0 0 0 1 1 0.17
・
・
・
ベイジアンネットワークの性質
40
ベイジアンネットワークの性質
右図のベイジアンネットワークでは・・・
同時確率は
𝑃 依頼, 発表, 嫌い, 炎上, いじられる
= 𝑃 依頼 𝑃 嫌い 依頼 𝑃 発表 依頼
𝑃 炎上 発表 (いじられる|発表)・・・(10)
41
発表 依頼 P(発表|依頼)
0 0 0.2
0 1 0.1
1 0 0.4
1 1 0.3
ベイジアンネットワークの性質
炎上 発表 P(炎上|発表)
0 0 0.3
0 1 0.1
1 0 0.2
1 1 0.4
42
発表 いじられる P(いじられる|発表)
0 0 0.1
0 1 0.5
1 0 0.2
1 1 0.2
ベイジアンネットワークの性質
依頼 嫌い P(嫌い|依頼)
0 0 0.3
0 1 0.1
1 0 0.2
1 1 0.4
43
右図のベイジアンネットワークの同時確率
これら4つの表の組み合わせで
表現できる
ベイジアンネットワークの性質
𝑃 𝐴, 𝐵, 𝐶, 𝐷, 𝐸 = 𝑃 𝐴 𝑃 𝐶 𝐴 𝑃 𝐵 𝐴 𝑃 𝐷 𝐵 𝑃(𝐸|𝐵)は
44
ノード間の因果関係
 BNは以下の3つの組み合わせでできている
(1) (2) (3)
45
ノード間の因果関係
(1)Head-to-tail connection
Bが決定すると・・・
その親ノードと子ノードは独立になる
一方、Bの値が分からないと・・・
CはAの影響を受ける
A
B
C
代表から発表
を依頼される
ニコ生で喋る ニコ生で炎上する
事象が発生 ここの確率
は??
46
 (2)Tail-to-tail connection
Aが決まるとBとCは独立になる
(各ノードは親ノードの値のみから値が決まる)
BだけがわかるとB→Aに影響を与え
A→Cへ影響を与える
A
B C
ノード間の因果関係
47
 (3)Head-to-head connection
A,Bは親ノードを共有していない
→独立
Cが決まると独立ではなくなる
Cが生起するけれどAは生起していない
→Bが生起した確率は高そう
A B
C
Explaining away effect
ノード間の因果関係
48
どんなに複雑なモノでも
これら3つの組み合わせでできている
A
B C
F
G
ED
ベイジアンネットワークと同時確率
49
どんなに複雑なモノでも
これら3つの組み合わせでできている
A
B C
F
G
ED
ベイジアンネットワークと同時確率
50
この部分だけ見ると
P(E,F,G)=P(E)P(F|E)P(G|F)
E
F
G
ベイジアンネットワークと同時確率
51
この部分だけ見ると
P(B,D,E)=P(B)P(D|B)P(E|B)
ED
B
ベイジアンネットワークと同時確率
52
この部分だけ見ると
P(B,C,E)=P(B)P(C)P(E|B,C)
E
CB
ベイジアンネットワークと同時確率
53
 同時確率を部分的に求められる
 全体の同時確率は
それらを組み合わせて求まる
P(A,B,C,D,E,F,G)
=P(G|F)P(F|E)P(E|B,C)P(C|A)P(D|B)P(B|A)
P(A)
A
B C
F
G
ED
ベイジアンネットワークと同時確率
54
 周辺化とは
同時確率をいくつかの確率変数を消して
得ること
周辺化
B P(B|A)
A P(A)
𝑃(𝐵 = 𝑏) =
𝐴∋𝑎 𝑖
𝑃 𝑏|𝑎𝑖 𝑃(𝑎𝑖)
55
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
56
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
57
ベイジアンネットワーク構築の流れ
データ→ 構造学習 →条件付き確率の決定→
確率推論
・MWSTアルゴリズム
・AICアルゴリズム
・確率伝播法
・k2アルゴリズム
・ジャンクションツリーアルゴリズム
58
ベイジアンネットワーク構築の流れ
データ→ 構造学習 →条件付き確率の決定→
確率推論
・MWSTアルゴリズム
・AICアルゴリズム
・確率伝播法
・k2アルゴリズム
・ジャンクションツリーアルゴリズム
59
ベイジアンネットワーク構築の流れ-構造学習
データ→ 構造学習 →条件付き確率の決定→
確率推論
・MWSTアルゴリズム
・AICアルゴリズム
・確率伝播法
・k2アルゴリズム
・ジャンクションツリーアルゴリズム
60
MWSTアルゴリズム
 仮定:ベイジアンネットワークは木構造
 真の同時分布:P(T)
 BNから得られる同時分布:𝑃𝐵𝑁 𝑇
(右図でのP(A,B,C,D,E))
これらの近さをKL情報量で表す:𝐼(𝑃 𝑇 , 𝑃𝐵𝑁 𝑇 )
→近さが最小なら真のモデルに最も近い!!
B
DC
A観測したデータより求められる
E
61
MWSTアルゴリズム
62
𝑃 𝑇 , 𝑃𝐵𝑁 𝑇 の近さ𝐼(𝑃 𝑇 , 𝑃𝐵𝑁 𝑇 )を最小化
→ 𝐽 𝐻 (𝑥 𝑘 , 𝑥 𝑘′)を最大化に帰着
H:相互情報量
同様に
全てのノード間のHを
計算しHを最大化する
B
D
C
A
E
𝐻(𝐴, 𝐵)
𝐻(𝐴, 𝐷)𝐻(𝐴, 𝐶)
𝐻(𝐴, 𝐸)
EX)
63
Hは相互情報量𝐻 𝑥 𝑘 , 𝑥 𝑘′ =
− 𝑃 𝑥 𝑘 , 𝑥 𝑘′ 𝑙𝑜𝑔
𝑃 𝑥 𝑘 ,𝑥 𝑘′
𝑃 𝑥 𝑘 𝑃 𝑥 𝑘′
つまり・・・
相互情報量Hの最も大きくなる場所に
アークを追加していけばよい
C.K. CHOW:Approximationg Discrete Probability Distributions with
Dependence Trees,JEEE TRAINSACTIONS ON INFORMATION
THEORY, VOL.IT-14,NO.3,MAY 1968
MWSTアルゴリズム
MWSTアルゴリズム
仮定:木構造
(1)すべてのノード間の相互情報量を求め
情報量が最大となる枝を選択
(2)ループができるならやめて
次に情報量の大きい枝を選択
(3)アークがn-1になるまで繰り返す
64
MWSTアルゴリズム
 例)
 上表について木を作ってみる。
H A B C D E
A 0.02 0.3 0.09 0.1
B 0.26 0.025 0.001
C 0.001 0.2
D 0.08
E
65
各ノード間の相互情報量
MWSTアルゴリズム
H A B C D E
A 0.02 0.3 0.09 0.1
B 0.26 0.02
5
0.00
1
C 0.00
1
0.2
D 0.08
E
C
A
66
MWSTアルゴリズム
H A B C D E
A 0.02 0.3 0.09 0.1
B 0.26 0.02
5
0.00
1
C 0.00
1
0.2
D 0.08
E
C
A B
67
MWSTアルゴリズム
H A B C D E
A 0.02 0.3 0.09 0.1
B 0.26 0.02
5
0.00
1
C 0.00
1
0.2
D 0.08
E
C
A B
E
68
MWSTアルゴリズム
H A B C D E
A 0.02 0.3 0.09 0.1
B 0.26 0.02
5
0.00
1
C 0.00
1
0.2
D 0.08
E
C
A B
E
ループ
69
MWSTアルゴリズム
H A B C D E
A 0.02 0.3 0.09 0.1
B 0.26 0.02
5
0.00
1
C 0.00
1
0.2
D 0.08
E
C
A B
E
70
D
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
71
確率伝播法
確率伝播法とは
 事後確率を求める方法
𝑃 𝐴|𝐷 は? ?
𝑃 𝐴|𝐸 は? ?
A
B
D
E
P(E|B)
P(B|A)
P(D|C)
P(A)Ex)
C
P(C|B)
72
ベイジアンネットワーク構築の流れ-構造学習
データ→ 構造学習 →条件付き確率の決定→
確率推論
・MWSTアルゴリズム
・AICアルゴリズム
・確率伝播法
・k2アルゴリズム
・ジャンクションツリーアルゴリズム
73
確率伝播法
事後確率
𝑃 𝐴|𝐷 =
𝑃(𝐴, 𝐷)
𝑃(𝐷)
=
1
𝑃(𝐷)
𝐵 𝐶 𝐸
𝑃(𝐴, 𝐵, 𝐶, 𝐷, 𝐸)
=
1
𝑃(𝐷)
𝐵 𝐶 𝐸
P(E|B)P(D|C)P(C|B)P(B|𝐴)P(𝐴)
A
B
D
E
P(E|B)
P(B|A)
P(D|C)
P(A)Ex)
C
P(C|B)
・・・(11)
74
確率伝播法
事後確率
𝑃 𝐴|𝐸 =
𝑃(𝐴, 𝐸)
𝑃(𝐸)
=
1
𝑃(𝐸)
∗
𝐵 𝐶 𝐷
𝑃(𝐴, 𝐵, 𝐶, 𝐷, 𝐸)
=
1
𝑃(𝐸)
𝐵 𝐶 𝐷
P(E|B)P(D|C)P(C|B)P(B|𝐴)P(𝐴)・・・
(12)
A
B
D
E
P(E|B)
P(B|A)
P(D|C)
P(A)Ex)
C
P(C|B)
効率が悪い
75
確率伝播法
 事後確率を求めるための工夫
メッセージ 𝑚 𝑋𝑌 = 𝐴 𝑃 𝑋 𝐴 ・𝑚 𝐴𝑋
順方向への伝播
𝑚 𝐴𝐵 = 𝑃 𝐴
𝑚 𝐵𝐶 = 𝑚 𝐵𝐸 =
𝐴
𝑃 𝐵 𝐴 ・𝑚 𝐴𝐵 = 𝑃(𝐵)
・・・
𝑚 𝐴𝐵
𝑚B𝐶
A
B
D
E
P(E|B)
P(B|A)
P(D|C)
P(A)
Ex)
CP(C|B)
Y X A
𝑚 𝑋𝑌 𝑚 𝐴𝑋
P(X|A)
76
確率伝播法
逆方向への伝播
𝑚 𝐷𝐶 = 𝑃 𝐷 𝐶
𝑚 𝐶𝐵 =
𝐶
𝑃 𝐶 𝐵 ・𝑚 𝐷𝐶
𝑚 𝐸𝐵 = 𝑃 𝐸 𝐵
𝑚 𝐵𝐴 =
𝐵
𝑃 𝐵 𝐴 ・(𝑚 𝐶𝐵+𝑚 𝐸𝐵)
A
B
D
E
P(E|B)
P(B|A)
P(A)Ex)
C
P(C|B)
P(D|C)P(C,E|B)
P(D|C)
77
確率伝播法
𝑃 𝐴|𝐷 =
𝑃(𝐴, 𝐷)
𝑃(𝐷)
=
𝐵 𝐶 𝐸 𝑃(𝐷|𝐶)𝑃 𝐶 𝐵 𝑃(𝐸|𝐵)𝑃(𝐵|𝐴)𝑃(𝐴)
𝛼
=
𝑚 𝐴𝐵 𝑚BA
𝛼
A
B
D
E
P(B|A)
Ex)
C
P(C|B)
𝑚DC
𝑚C𝐵 𝑚 𝐸𝐵
𝑚 𝐴𝐵 𝑚 𝐵𝐴
𝛼 = 𝑃(𝐷)
78
ベイジアンネットワークの特徴
 結合の強さは条件付き確率([0,1]の値)
 推論時の情報の流れが双方向
 因果確率の仮定から局所的に学習が可能
 局所的な推論も可能
S
A C
𝑚 𝑆𝐴
B G
𝑚 𝑆𝐴
79
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 条件付き確率の決定
 構造学習
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
80
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
81
大脳新皮質の概要
82
 理性・知性をつかさどる
 視覚野や聴覚野、運動野など52の領野に
分けられそれぞれの領野で働きなどが異なる
大脳新皮質の特徴
 均質構造
基本構造が似ていて領野にかかわらず
構造や処理は均質
 階層構造
領野間には上下関係がある
上の階層へ行くほど情報が抽象化される
83
大脳新皮質の特徴
 6層構造
細胞の形状や密度が異なる
上向きの経路,下向きの経路がある
Layer
1
Layer
1
Hawkins,J.et al., 2004,”On Intelligence,”Times
Books.
84
大脳新皮質の特徴
 コラム構造
複数の神経細胞からなる柱状の構造
・ミニコラム
・マクロコラム
特定の入力パターンに対して
特定のコラムが反応する.
学習後:
入力パターンが不完全でも細胞が興奮する
85
もくじ
導入
 確率の概要
 条件付き確率
 ベイズの定理
 最尤推定とベイズ推定
ベイジアンネットワーク
 ベイジアンネットワークの概要
 学習の流れ
 構造学習
 確率推論
脳とベイジアンネットワーク
 大脳新皮質の性質
 ベイジアンネットワークは大脳新皮質か
86
ベイジアンネットワークと大脳新皮質
ベイジアンネットワークと大脳新皮質の類似点
 情報の流れが双方向
 不完全なデータでも推論ができ、局所的な
学習ができる
A
B
D
𝑚 𝐵𝐴
C
E
𝑚 𝐴𝐵
コラム構造
87
ベイジアンネットワークと大脳新皮質
ベイジアンネットワークと大脳新皮質の類似点
 長期記憶
 処理は内積の計算程度
 因果関係から合理的な推論ができる
88
大脳新皮質モデルに有効か??
問題
特徴抽出ができない
ベイジアンネットワークと大脳新皮質
89
90
 大脳新皮質
 上位の領野へ行くほど情報が抽象化される
一方・・・
抽象化に必要な特徴抽出が
ベイジアンネットワークではできない
ベイジアンネットワークと大脳新皮質
大脳新皮質モデルに有効か??
問題
特徴抽出ができない
→BESOMモデルの提案
ベイジアンネットワークと大脳新皮質
91
BESOMとは・・・
SOM+ベイジアンネットワーク
ネットワーク構造は固定
確率伝播アルゴリズムの工夫
データ→学習ステップ→認識ステップ
92
BESOMモデルと大脳新皮質
確率変数値:ミニコラム
ノード:マクロコラム
構造の固定
SOMで入力の抽象化
確率伝播法の工夫
引用元 上:一杉裕志,大脳皮質のアルゴリズム BESOM Ver.2.0, 産業技術総合研究所テクニカル
レポート AIST11-J00009,2011による図を一部修正
下: 一杉裕志,大脳皮質とベイジアンネット, 日本ロボット学会誌 ol.29 No.5, pp414, 2011
による図を一部修正
93
他の大脳新皮質モデル
大脳新皮質モデル
 DeSTIN
 HTM
 階層HMM
共通の部分
・階層構造
・時系列処理
94
BESOMは大脳新皮質のモデルに有効か
大脳新皮質と多くの類似点がある
しかし・・・
ベイジアンネットワークやBESOMは長期記憶
→時系列処理は実装されていない
95
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
確率伝播アルゴリズムの工夫
- 近似確率伝播アルゴリズム
96
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
4層→3層
97
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
第3層→上位領野第4層
98
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
第5層→下位領野第1層
99
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
第5層→下位領野第1層
100
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
対応が取れている!!!
101
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
一方・・・
102
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
第1層水平繊維
103
BESOMは大脳新皮質のモデルに有効か
一杉裕志:大脳皮質とベイジアンネット,
日本ロボット学会誌 Vol.29 No.5, pp414,
2011
Hawkins,J.et al., 2004,
”On Intelligence,”Times Books.
第4層→第2層
104
まとめ
 ベイジアンネットワークを用いたモデルは
大脳新皮質モデルに有効か??
・多くの類似点がある
・時系列処理は出来ない
105
参考文献
[1]一杉裕志:大脳皮質とベイジアンネット, 日本ロボット学会誌 Vol.29 No.5,
pp412-415, 2011
[2]長谷川亮,白石俊彦,森下信:A Study on a Neural Network Based on
Structual Characteristics of Cerebral Neocortex,日本機械学会 Dyn Des
Conf (CD-ROM),2008,ROMBUNNO.448,2008
[3]安田宗樹, 片岡駿,田中和之:
確率的グラフィカルモデル-ベイジアンネットワークとその周辺-
オペレーションズ・リサーチ:経営の科学,58(4), pp.191-197, April 2013.
[4]Yuuji ICHISUGI:The cerebral cortex model that self-organizes
conditional probability tables and executes belief propagation, In Proc.
Of International Joint Conference on Neural Networks
(IJCNN2007),pp.1065-1070,Aug 2007.
106
参考文献
[5]解説:「確率伝播アルゴリズムとは」
https://staff.aist.go.jp/y-ichisugi/besom/20100226what-is-bp.pdf
[6]荒木雅弘,フリーソフトで始める 機会学習入門,森北出版株式会社,2014
[5]C.K. CHOW:Approximationg Discrete Probability Distributions with
Dependence Trees,JEEE TRAINSACTIONS ON INFORMATION THEORY,
VOL.IT-14,NO.3,MAY 1968
[6]一杉裕志、細谷晴夫:BESOM を用いたスパース符号化の一手法,電子情報
通信学会技術研究報告 ニューロコンピューティング,Vol.109 No.461, pp.345--
350, Mar 2010.
[7]全脳アーキテクチャへの要求仕様
https://docs.google.com/document/d/1Hmngsuz4mELlGlMIQTC6jJM3enoS
1lJPkJFZ-Hy_6Ew/edit?pli=1#
107
参考文献
[8]一杉裕志,大脳皮質のアルゴリズム BESOM Ver.2.0, 産業技術総合研
究所テクニカルレポート AIST11-J00009,2011
108

More Related Content

What's hot

よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理Masatoshi Yoshida
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析Seiichi Uchida
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用Tomonari Masada
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"takehikoihayashi
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 Ken'ichi Matsui
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへMasatoshi Yoshida
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索Shiga University, RIKEN
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性sleepy_yoshi
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 

What's hot (20)

よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 

Similar to 全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク

演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノートWataru Shito
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義Hayaru SHOUNO
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networkstm1966
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量Shohei Miyashita
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」Naoki Hayashi
 
データサイエンス概論第一=1-2 データのベクトル表現と集合
データサイエンス概論第一=1-2 データのベクトル表現と集合データサイエンス概論第一=1-2 データのベクトル表現と集合
データサイエンス概論第一=1-2 データのベクトル表現と集合Seiichi Uchida
 
LAB-ゼミ資料-1-20150413
LAB-ゼミ資料-1-20150413LAB-ゼミ資料-1-20150413
LAB-ゼミ資料-1-20150413Yuki Ogasawara
 

Similar to 全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク (8)

Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 
データサイエンス概論第一=1-2 データのベクトル表現と集合
データサイエンス概論第一=1-2 データのベクトル表現と集合データサイエンス概論第一=1-2 データのベクトル表現と集合
データサイエンス概論第一=1-2 データのベクトル表現と集合
 
LAB-ゼミ資料-1-20150413
LAB-ゼミ資料-1-20150413LAB-ゼミ資料-1-20150413
LAB-ゼミ資料-1-20150413
 

全脳アーキテクチャ若手の会 機械学習勉強会 ベイジアンネットワーク

Editor's Notes

  1. 確率とはと条件付き確率はまとめてもよいかもしれない
  2. 確率とはと条件付き確率はまとめてもよいかもしれない
  3. 記号と用語の説明をする
  4. 主観確率・その時得られているサンプルから確かさを表現したもの 主観確率の例:試験に受かる確率 70%位で受かるだろう→10回試験を受けて7回受かるという意味ではない
  5. 確率とはと条件付き確率はまとめてもよいかもしれない
  6. スライドに具体例を表記
  7. 確率とはと条件付き確率はまとめてもよいかもしれない
  8. a:結果 B:原因
  9. a:結果 B:原因
  10. 確率とはと条件付き確率はまとめてもよいかもしれない
  11. 確率分布がわからない場合さまざまなもので上記の計算を行い各確率分布における発生確率を比較して最大値のものを採用すればよい。
  12. 確率分布がわからない場合さまざまなもので上記の計算を行い各確率分布における発生確率を比較して最大値のものを採用すればよい。
  13. 最尤推定では尤度の分布を推定し ベイズ推定では事後確率の分布を推定する 最尤推定は母集団のモデルを推定するために多くのデータが必要ベイズ推定ではデータを得るごとに推定 最尤推定では母集団のモデルは一つに決まり、ベイズ推定では更新するたびに得られるモデルは変わる
  14. 確率とはと条件付き確率はまとめてもよいかもしれない
  15. 確率とはと条件付き確率はまとめてもよいかもしれない
  16. たとえば、若手の運営メンバーが代表に発表しろと言われる そのもとで発表する→ニコ生で炎上する 発表しろと言われたことと炎上することは独立
  17. たとえば、若手の運営メンバーが代表に発表しろと言われる そのもとで発表する→ニコ生で炎上する 発表しろと言われたことと炎上することは独立
  18. たとえば、若手の運営メンバーが代表に発表しろと言われる そのもとで発表する→ニコ生で炎上する 発表しろと言われたことと炎上することは独立
  19. Explaining away effect
  20. 場所の検討
  21. 確率とはと条件付き確率はまとめてもよいかもしれない
  22. 確率とはと条件付き確率はまとめてもよいかもしれない
  23. (Maximum Weight Spanning Tree)
  24. 図を入れる
  25. 確率とはと条件付き確率はまとめてもよいかもしれない
  26. 事後確率𝑃(𝑌|𝑌の子ノード)を求めるのに必要なYに隣接しているX以下の情報をまとめたもの ここでの𝑃 𝑋 𝑌 ・ 𝑚 𝐴𝑋 は内積!!
  27. 確率とはと条件付き確率はまとめてもよいかもしれない
  28. 確率とはと条件付き確率はまとめてもよいかもしれない
  29. 画像見つける
  30. 細胞の興奮を伝える経路
  31. 図をいれたい
  32. 確率とはと条件付き確率はまとめてもよいかもしれない
  33. がぞうの一部が欠けていてもおよその部分が写っていれば被写体が何かの推定できるとか・・
  34. 階層時間モデル(HTM)は大脳皮質の局所回路を定式化したモデルです。 網膜から第4層までの神経経路で空間パターンをコードし、皮質内の錐体細胞の ラテラルな繋がりによって時間遷移パターンをマルコフ鎖で表現しています。
  35. すべてのノードに対してSOM→BN (海馬などのモデルとつないだ時の親和性) 伝えたいことが見えてこない SOMは視覚やに特化しているがほかの量やへの応用はSOMで大丈夫か
  36. 一層の水平繊維
  37. 一層の水平繊維
  38. 大脳基底核とか??海馬とかのモデルと統合した時に動くのか。