SlideShare a Scribd company logo
1 of 30
Download to read offline
2. Bayes統計に基づく推論
Bayesによる確率分布推定の考え方
多項分布、ディリクレ分布
事前分布としてのディリクレ分布の意味
正規分布と事後分布
多次元正規分布と条件付き分布
指数型分布族
自然共役事前分布の最尤推定
クラシックな機械学習の入門
by 中川裕志(東京大学)
Bayesによる確率分布推定の考え方
事前分布 とはパラメター
(i.e. μ)自体の分布
μ
観測データ
or 教師データ:X
p(μ|X)=p(X|μ) p(μ)
観測データを事前分布にBayes
の定理で組み合わせる
μ
Xを観測した後に得た
パラメターμの
事後分布
パラメター μは点では
なく、分布として与えら
れる点に注意!
 複数の離散データが独立に出現する場合の確率分
布の定番
 個々の離散データ間に相関がない場合に使うもの
で基本的分布。
以下はK種類の離散データ(例えば、語彙数がKでN単語
からなるテキストでの単語の出現分布)がある場合
多項分布:Mult
 
       
1
cov1varE
..
,|,..,,
1
121
21













K
i
k
kjkjkkkkk
K
k
m
k
K
K
NmmNmNm
mmm
N
NmmmMult k



ただし、
μ
多項分布では離散事象(たとえば単語)iの出
現回数 mi が確率変数だった。
しかし、逆に mi が観測値として既知の場合に
、単語 i の出現確率 μi が確率変数となる分
布も考えられる。すなわち、多項分布の事前
分布として使えるような分布。
ディリクレ分布: Dir
ディリクレ分布:Dir
• K変数の場合。αはパラメターだが、以下の式
の分布を作るときに使った既知の観測回数
のデータと考えてもよいだろう。
   
   
 
K
k
k
K
k
k
K
K
k
K
k
k
KK
k
Dir
αμ


















































1
1
1
1
1
1
11
E
|
101
4
2
2 410
Γ 関数
1
ディリクレ分布の例
2
1
01.0
21
21
21






0μ1 μ11
1μ2 μ20
事前分布としてのディリクレ分布の意味
ディリクレ分布Dirを事前分布とみなして、観
測データが多項分布Multで与えられたときの
事後分布としてのディリクレ分布Dirを考える
こうして見ると、αiは事前分布を得るために想
定したiの(仮想的)観測回数と見做せる。
 
 
   












K
i
m
i
KK
K
i
m
i
K
i
i
K
i
iKi
ii
ii
mm
M
XDirXDir
DirXMultXDir
MmmmXmi
1
1
11
0
1
1
0
11
1
)|(),|(
)|(|),|(
,),,...,(









  :の出現回数観測データ 
事前観測事後
 1変数正規分布:連続する数値データの確率分布の
定番
 では、ここでMultからDirの事後分布を求めたと同じ
ように、Bayesの定理を用いて、正規分布において
、事前分布から事後分布を求めてみよう。
次のページの例は簡単のため、分散は既知とし、事後分
布の期待値だけを求めることにする。
分散の事後分布についてはWishart分布という分布が登場する
が、難しいのでここでは省略
正規分布(1変数)と事後分布
        2
2
2
2
2
var,E,
2
exp
2
1
,| 



 





 
 xx
x
xN
 
 
 
 
       
 
   











































 









K
i iK
K
KK
K
i i
K
i
i
K
i
iK
K
i
i
x
KK
K
NXpK
Xp
N
x
K
xpXpXp
Bayes
xxp
XpK
Np
122
0
2
0
022
0
2
22
0
2
2
2
1
2
0
02
2
0
2
2
0
2
0
1
2
2
1
2
22/2
1
2
00
,
11
,||:
|
)10(
2
1
exp
22
1
exp)|(|
2
1
exp
2
1
|
)|(:
),|(:
























後の事後分布個の観測データを得た
だからこの結果より
は正規分布
  
の定理から
は既知ただし
れた場合の尤度個の観測データが得ら
事前分布

事前分布からの寄与 観測データからの寄与
事前観測事後
観測データ数Kと事後分布の例
-1.5 -1 -0.5 0 0.5 1 1.5
K=10の事後分布
K=2の事後分布
K=1の事後分布
事前分布
  5.0
1
01.01.0
1
0
22
0  
xEx
K
K
i
i
観測データにより事前分布の
パラメータμが修正されていく
 多次元正規分布:複数種類(つまり複数の確率変数)
を持つ数値データの確率分布
多次元正規分布
 
 






















































)()(
2
1
exp
)2(
||
)()(
2
1
exp
||
1
)2(
1
)|(
:cov
E
2
2
1
1
2
1
2
1
2
1
11
2
11
μxμx
μxΣμxΣμ,x
Σx
μxx
T
D
T
D
DD
D
DD
N
x
x
D






  
精度行列共分散行列:
次元の正規分布


例題
多次元正規分布の共分散行列を推定する。
 
 
 



























1
x
x
1
x
11
1
2
2
1
1
]))([(
0]))([(
[]x
))(())((
))(()()(
2
||log
1
0
)()(||log)|(log
)()(
2
1
exp
)2(
)|(
T
T
TTT
TT
T
T
T
D
E
E
E
trace
N
N
D
μxμx
μxμx
μxμxμxμx
μxμxμxμx
μxμxμ,x
μxμxμ,x
より
をすると、すなわちに対して期待値をとるここで
項の微分第
項の微分第
とおくで微分してするためにこの対数尤度を最大化
次元の正規分布

条件付正規分布
 変数ベクトルzをxとyに分割すると
X=a
y
p(y)
P(y|x=a)
 変数ベクトルzをxとyに分割する。
 ここで多次元正規分布の指数の肩の項は次式
-(G-10)
yx
T
xy
yyyx
xyxx
T
yxxy
T
yyyx
xyxx
y
x
where
N

































とすると精度行列:
多次元正規分布
1
),|(
μ
μ
μ
y
x
z
μz
)()(
2
1
)()(
2
1
)()(
2
1
)()(
2
1
)()(
2
1 1
yyy
T
yxyx
T
y
yxy
T
xxxx
T
x
T
μyμyμxμy
μyμxμxμx
μzμz


 
一般に正規分布 の指数の肩は次式で書け、右
辺の第1項、第2項の係数の部分に着目すれば期待値、共分
散が求まる。
-(G-20)
),( μ|zN
constTTT
 
μzzzμzμz 111
2
1
)()(
2
1
条件付正規分布p(x|y)の期待値μx|yと共分散Σx|yをこの方法を
(G-10)式に適用して求めよう。ー 問題
一方、(G-10)においてxの1次の項がΣ -1 μ これは次式
 
 
)(
)(
)(
1
1
|||
yxyxxx
xxyxyxyxxxyxyx
yxyxxx
T
μyμ
μyμμ
μyμx





より
これにより
次に、これらの結果を共分散行列を用いて書き直す
yxyyxyxxyx
yyyxyxyx
yyxyyxyyxyxxxyyxyyxyxxxx
yyyx
xyxx
yyyx
xyxx
Matrix

























1
|
1
|
11111
1
1
)(
)()(
)(
μyμμ
を使えばにおいて
yを定数とみなしてxの分布を求めれば、条件付分布になるか
ら(G-10)の第1項のxの2次の項の係数が共分散。すなわち
1
|
2
1 
 xxyxxx
T
によりxx
exponential family:指数型分布族
   
  
   2)))d(exp()(log)(
1d))(exp()(exp
),(,,
1)η)(exp()()|(
EBxxuηxhηa
uηhηa
ηux
EBauηhηp
T
T
T





xxx
x
xxx
また、 
は一般にはベクトルただし
正規化項
iidの観測データX={x1, …, xN }に対しては以下の式












  
N
n
n
T
N
n
n ηNaηhηp
11
)()(exp)()|( xuxX
事前分布と学習後の事後分布が同一タイプの分布(事前共役)
いくつかの確率密度関数のExponential family表現:ガウス分布
 
 
)(
1
log
2
,
1
log
2
2
1
,exp
2
1
2
2
exp
2
1
2
exp
2
1
),|(
2
2
1
21
2
2
2
22
2
22
2
2
2
2
2
















ax
x
x
xx
x
xp
T






































 






 

いくつかの確率密度関数のExponential family表現:多項分布
)()(
1log
1
logexp
1loglogexp
,1)|(
familylexponentia)(
1
1
1
1
1
1
21
1
1
1
1
1
121
11121






axxh
Nx
xxx
N
xNx
xxx
N
Nx
xxx
N
xp
lMultinomia
T
K
k
kk
K
k
K
k
k
k
K
K
k
k
K
k
k
K
k
kk
K
K
k
k
K
k
k
K
k
x
k
K
k









































































































を使うと
表現の多項分布
自然共役事前分布の最尤推定
 
 4])([
)(
3])([
)(
])([1
0)())()(exp()())()(exp()(
)(
))()(exp()()|(1
parameternatural
))()(exp()()|(
2
2
EBV
η
ηa
EBE
η
ηa
E
duηauηhdηauηh
η
ηa
j
dηauηhdηp
η
ηauηhηp
j
j
j
j
j
j
TT
j
j
T
T
xu
xu
xu
xxxxxxx
xxxxx
xxx















                       
とで微分してゼロとおく成分の第上の式を
の最尤推定をする。における

(EB3)(EB4)の応用例
ガウス分布に応用
 
    1)(
2
)(
log
2
1
2
)(,
1
log
2
2
1
,exp
2
1
),|(
2
22
1
1
2
1
2
1
2
1
2
2
1
11
1
2
2
2
1
21
2
2
2
22
2

































































ηη
ηa
xV
ηη
ηa
xE
ax
x
x
xp
ηη
T
      
(EB3)(EB4)の応用例 多項分布に応用
 kk
K
k
k
K
k
k
k
K
k
k
k
K
k
K
k
K
k
K
k
k
K
k
k
k
kK
k
k
k
K
k
K
k
k
k
K
k
k
k
K
k
k
k
K
k
K
k
K
k
kkK
k
k
K
k
k
K
k
kK
k
K
k
k
k
K
k
kk
K
k
K
k
k
k
K
K
k
x
k
K
NN
e
eee
N
e
eeee
N
e
e
N
a
NNN
e
e
N
a
eN
e
NNaee
Nx
xx
N
xx
N
xp
k
kkk
k
kkkkk
k
k
k
k
k
k
kk
k


























































































































































































































1
1
1
1
1
)(
1
1
)(
log
1
log1log)(
1
1
11
1log
1
logexp)|(
21
1
1
1
1
1
2
1
1
2
1
11
2
2
11
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
111 
)(1log)(
1
1
 axxh
K
k
kkk         





 


2項分布の場合はおなじみの公式
    
   
   
   
 
 1
e1
e
e1
e)(
e1
e)(
e1log
e1
1
log1log)(
e1
e
e1e1e
1
e
)(
1
log)(
1log
1
logexp
2
1)|(
22
2

















































































NNN
ηη
ηa
xVNN
a
xE
NNNa
axh
Nx
N
x
N
xp
ηη
xNx
        
Exponential familyとベイズ統計:
共役分布と事後分布
仮想的な観測
データ
実際の観測
データ
仮想的
な観測
回数:1
実際の観測
回数
赤枠の中は事
後パラメター
 
     
   
 
 
        
      























































aηaKληxuλh
ηaxuηaηaληλh
xpηpxxηp
xxiidKxp
EB
ηa
ηλλ
ha
aηaληλhηp
λλλ
TK
i
i
K
i
i
TT
K
i
iN
K
T
T
T
2
1
1
1
21
1
1
1
21
21
21
)(exp)(
)(expexp)(
|)|(),,,|(
)|(
)22(d
,
exp)(log
exp)()|(
,:ハイパーパラメター


の事後分布は
が得られたときのの観測データ個のに沿うさて、
布を定義する によって共役事前分  
   
      
 
 
 
は既知とする。
          
は既知ただし
れた場合の尤度個の観測データが得ら
=  事前分布
22
00
22
2
2
22
2
1
2
22/21
2
0
2
0
2
0
2
2
0
0
21
2
00
2
0
22
0
0
121
2
00
,,
)(
1
log
2
1
2
1
,exp
2
1
),|(
2
1
exp
2
1
|
)|(:
22
expexp),|(|
2
1
,,,),|(|:

























a
x
x
xp
xxp
XpK
λaaλλNp
Np
T
K
i
iK
K
i
i
T




















































1変数正規分布の期待値に適用した例 その1
 
     
   
































































































22
0
2
1
22
0
0
22
2
2
0
2
1
22
0
0
2
2
2
1
2
1
1
22
1
T
21
1
1
1
2
1
exp
1
log
22
1
exp)(
12
,exp)(
1
,
)(expexp)(
|)|(),,,|(
























K
x
K
xh
ηKaaλ
x
xλh
ηaxuηaλλh
xppxxp
K
i
i
K
i
i
K
i
i
K
i
i
T
K
i
i
K
i
iN
             

1変数正規分布の期待値に適用した例 その2
前に求めた N10 に一致
Exponential family別表現とベイズ統計の続き:予測分布
        
          
得られる。で   置き換えればを
でを
においての予測分布はの 新規(あるいは未知)
が得られたときのの観測データ個の
とハイパーパラメター
で分布は次式のように与えられたときの事後ハイパーパラメターが
ーしたハイパーパラメタ個の観測データも考慮
Kλλλ
xuλλλ
EBx
xxiidK
EBaηaληxuλhxh
aηaληλhaxuxh
λpxpxp
EBKλλEBxuλλ
K
K
i
i
K
T
TT
K
i
i














222
1
111
1
21
21
22
1
11
ˆ
)(ˆ
)23(
)23(expd1)(exp)()(
dexp)()(exp)(
d)|()|()|(
emarginaliz
)22(ˆ)21()(ˆ






ベイズ統計による事前、事後、予測分布の例:多変数ガウス分布
難しいので省略する予定
精度行列(分散の逆行列)Λが既知のd次元ガウス分布をexponential family で表現
     
    
 
 
 
T
d
TTT
TTTT
T
T
d
xxxu
axh
xxxddxp
xxxxdd
xxdd
xxxp
),..,()(
)()(
2
1
exp||log2log
2
1
exp)|(
!:parameternatural
||log2log
2
1
exp
||log2log
2
1
exp
2
1
exp||2
2
1
)|(
1
1
11T1T
11
2









































     
    
以下も注意
たがまだ決めていなかっ
 とおくと







事前分布のパラメターλから予測分布p(x| λ)を求める
      
  
   
||||
2
1
||loglog
2
1
2
2
1
||log
2
1
exp
2
1
exp
22
2
1
exp
2
1
expexp)|(
1
2
1
2
1
2
111
2
2
11
1
1
2
1
2
2
11
2
2
1
1
1
2
1
2121
























 






















 





 















d
T
T
TT
T
TT
TTT
d
da
a
aaap















に対しては、次元の行列
とおくと
として事前分布もガウス分布

     
   
 
          )36(
2
)()35(
2
)4)(3(
)22(d
,
exp)(log
exp)()|(
2
2
11
222
1
1
21
21
EB
da
aEEB
a
E
EBEB
EB
ηa
ηλλ
ha
aηaληλhηp
TT
T
T















































ように求まる。の十分統計量が以下のが与えられたときのより
 および

More Related Content

What's hot

グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由tancoro
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理Masatoshi Yoshida
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture ModelsSliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture ModelsFujimoto Keisuke
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 

What's hot (20)

グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture ModelsSliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 

Viewers also liked

クラシックな機械学習入門 1 導入
クラシックな機械学習入門 1 導入クラシックな機械学習入門 1 導入
クラシックな機械学習入門 1 導入Hiroshi Nakagawa
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017Hiroshi Nakagawa
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別Hiroshi Nakagawa
 
PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28kurotaki_weblab
 
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説GM3D
 
二次形式と素数で遊ぼう - 第2回 #日曜数学会
二次形式と素数で遊ぼう - 第2回 #日曜数学会 二次形式と素数で遊ぼう - 第2回 #日曜数学会
二次形式と素数で遊ぼう - 第2回 #日曜数学会 Junpei Tsuji
 
データ利用における個人情報の保護
データ利用における個人情報の保護データ利用における個人情報の保護
データ利用における個人情報の保護Hiroshi Nakagawa
 
2014人工知能学会大会および情報処理学会EIP研究会発表資料
2014人工知能学会大会および情報処理学会EIP研究会発表資料2014人工知能学会大会および情報処理学会EIP研究会発表資料
2014人工知能学会大会および情報処理学会EIP研究会発表資料Hiroshi Nakagawa
 
k-匿名化が誘発する濡れ衣:解決編
k-匿名化が誘発する濡れ衣:解決編k-匿名化が誘発する濡れ衣:解決編
k-匿名化が誘発する濡れ衣:解決編Hiroshi Nakagawa
 
Privacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityPrivacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityHiroshi Nakagawa
 
数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術Hiroshi Nakagawa
 
匿名加工情報を使えないものか?(改訂版)
匿名加工情報を使えないものか?(改訂版)匿名加工情報を使えないものか?(改訂版)
匿名加工情報を使えないものか?(改訂版)Hiroshi Nakagawa
 
未出現事象の出現確率
未出現事象の出現確率未出現事象の出現確率
未出現事象の出現確率Hiroshi Nakagawa
 
Privacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewPrivacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewHiroshi Nakagawa
 
Boundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityBoundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityHiroshi Nakagawa
 
匿名化の技術的俯瞰ー匿名加工情報の観点から
匿名化の技術的俯瞰ー匿名加工情報の観点から匿名化の技術的俯瞰ー匿名加工情報の観点から
匿名化の技術的俯瞰ー匿名加工情報の観点からHiroshi Nakagawa
 
Problems in Technology to Use Anonymized Personal Data
Problems in Technology to Use Anonymized Personal DataProblems in Technology to Use Anonymized Personal Data
Problems in Technology to Use Anonymized Personal DataHiroshi Nakagawa
 

Viewers also liked (20)

クラシックな機械学習入門 1 導入
クラシックな機械学習入門 1 導入クラシックな機械学習入門 1 導入
クラシックな機械学習入門 1 導入
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
PRML 2.3
PRML 2.3PRML 2.3
PRML 2.3
 
jokyo20120528
jokyo20120528jokyo20120528
jokyo20120528
 
PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28
 
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
 
二次形式と素数で遊ぼう - 第2回 #日曜数学会
二次形式と素数で遊ぼう - 第2回 #日曜数学会 二次形式と素数で遊ぼう - 第2回 #日曜数学会
二次形式と素数で遊ぼう - 第2回 #日曜数学会
 
データ利用における個人情報の保護
データ利用における個人情報の保護データ利用における個人情報の保護
データ利用における個人情報の保護
 
2014人工知能学会大会および情報処理学会EIP研究会発表資料
2014人工知能学会大会および情報処理学会EIP研究会発表資料2014人工知能学会大会および情報処理学会EIP研究会発表資料
2014人工知能学会大会および情報処理学会EIP研究会発表資料
 
A Happy New Year 2016
A Happy New Year 2016A Happy New Year 2016
A Happy New Year 2016
 
k-匿名化が誘発する濡れ衣:解決編
k-匿名化が誘発する濡れ衣:解決編k-匿名化が誘発する濡れ衣:解決編
k-匿名化が誘発する濡れ衣:解決編
 
Privacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityPrivacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymity
 
数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術
 
匿名加工情報を使えないものか?(改訂版)
匿名加工情報を使えないものか?(改訂版)匿名加工情報を使えないものか?(改訂版)
匿名加工情報を使えないものか?(改訂版)
 
未出現事象の出現確率
未出現事象の出現確率未出現事象の出現確率
未出現事象の出現確率
 
Privacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewPrivacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory Overview
 
Boundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityBoundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and Anonymity
 
匿名化の技術的俯瞰ー匿名加工情報の観点から
匿名化の技術的俯瞰ー匿名加工情報の観点から匿名化の技術的俯瞰ー匿名加工情報の観点から
匿名化の技術的俯瞰ー匿名加工情報の観点から
 
Problems in Technology to Use Anonymized Personal Data
Problems in Technology to Use Anonymized Personal DataProblems in Technology to Use Anonymized Personal Data
Problems in Technology to Use Anonymized Personal Data
 

More from Hiroshi Nakagawa

人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンスHiroshi Nakagawa
 
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例Hiroshi Nakagawa
 
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会Hiroshi Nakagawa
 
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察最近のAI倫理指針からの考察
最近のAI倫理指針からの考察Hiroshi Nakagawa
 
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会Hiroshi Nakagawa
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラHiroshi Nakagawa
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護Hiroshi Nakagawa
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by AnonymizationHiroshi Nakagawa
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演Hiroshi Nakagawa
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料Hiroshi Nakagawa
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」Hiroshi Nakagawa
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-Hiroshi Nakagawa
 

More from Hiroshi Nakagawa (20)

人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス
 
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
 
NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12
 
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会
 
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察最近のAI倫理指針からの考察
最近のAI倫理指針からの考察
 
AI and Accountability
AI and AccountabilityAI and Accountability
AI and Accountability
 
AI Forum-2019_Nakagawa
AI Forum-2019_NakagawaAI Forum-2019_Nakagawa
AI Forum-2019_Nakagawa
 
2019 3-9-nakagawa
2019 3-9-nakagawa2019 3-9-nakagawa
2019 3-9-nakagawa
 
CPDP2019 summary-report
CPDP2019 summary-reportCPDP2019 summary-report
CPDP2019 summary-report
 
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
 
Ai e-accountability
Ai e-accountabilityAi e-accountability
Ai e-accountability
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by Anonymization
 
人工知能と社会
人工知能と社会人工知能と社会
人工知能と社会
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
 
AI社会論研究会
AI社会論研究会AI社会論研究会
AI社会論研究会
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-
 

クラシックな機械学習の入門 2.ベイズ統計に基づく推論